JP7140810B2 - 制御装置、プログラム、システム、及び制御方法 - Google Patents

制御装置、プログラム、システム、及び制御方法 Download PDF

Info

Publication number
JP7140810B2
JP7140810B2 JP2020178305A JP2020178305A JP7140810B2 JP 7140810 B2 JP7140810 B2 JP 7140810B2 JP 2020178305 A JP2020178305 A JP 2020178305A JP 2020178305 A JP2020178305 A JP 2020178305A JP 7140810 B2 JP7140810 B2 JP 7140810B2
Authority
JP
Japan
Prior art keywords
music
type device
spectacles
glasses
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020178305A
Other languages
English (en)
Other versions
JP2022069230A (ja
Inventor
健太 石垣
優也 佐藤
裕貴 可児
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2020178305A priority Critical patent/JP7140810B2/ja
Publication of JP2022069230A publication Critical patent/JP2022069230A/ja
Application granted granted Critical
Publication of JP7140810B2 publication Critical patent/JP7140810B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、制御装置、プログラム、システム、及び制御方法に関する。
特許文献1には、楽曲に対して当該楽曲を聴くのにお薦めの場所(山、海など)を登録しておき、ユーザの場所に対応する楽曲を再生する技術が記載されている。特許文献2には、ユーザの状況に応じた音楽を再生するHMD(Head Mount Display)が記載されている。
[先行技術文献]
[特許文献]
[特許文献1]特開2006-146980号公報
[特許文献2]国際公開2014/181380号
本発明の一実施態様によれば、制御装置が提供される。制御装置は、眼鏡型デバイスの撮像範囲に含まれる対象物を特定する対象物特定部を備えてよい。制御装置は、対象物に基づいて楽曲を選択する楽曲選択部を備えてよい。制御装置は、眼鏡型デバイスにおいて楽曲を再生するよう制御する楽曲制御部を備えてよい。
上記楽曲選択部は、上記眼鏡型デバイスの位置情報及び日時情報にさらに基づいて上記楽曲を選択してよい。上記楽曲選択部は、上記眼鏡型デバイスの撮像範囲に含まれる1つの対象物に基づいて上記楽曲を選択してよい。上記楽曲選択部は、上記眼鏡型デバイスの撮像範囲に含まれる複数の対象物に基づいて上記楽曲を選択してよい。上記楽曲選択部は、上記眼鏡型デバイスの撮像範囲に、楽曲に関連する対象物が含まれる場合に、当該対象物に関連する楽曲を選択してよい。上記楽曲選択部は、選曲のタイミングにおける上記眼鏡型デバイスの撮像範囲に含まれる対象物に基づいて上記楽曲を選択してよい。上記楽曲選択部は、選曲のタイミングにおいて、前に再生していた楽曲の再生中に上記眼鏡型デバイスの撮像範囲に含まれていた時間がより長い対象物に基づいて、上記楽曲を選択してよい。上記選曲のタイミングは、前の楽曲の再生が終了した時点又は上記眼鏡型デバイスのユーザが選択した時点であってよい。上記選曲のタイミングは、前の楽曲の再生が予め定められた時間継続して行われた時点であってよい。
本発明の一実施態様によれば、コンピュータを、上記制御装置として機能させるためのプログラムが提供される。
本発明の一実施態様によれば、システムが提供される。システムは、上記制御装置と、上記眼鏡型デバイスとを備えてよい。
本発明の一実施態様によれば、コンピュータによって実行される制御方法が提供される。制御方法は、眼鏡型デバイスの撮像範囲に含まれる対象物を特定する対象物特定段階を備えてよい。制御方法は、対象物に基づいて楽曲を選択する楽曲選択段階を備えてよい。制御方法は、眼鏡型デバイスにおいて楽曲を再生するよう制御する楽曲制御段階を備えてよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
システム10の一例を概略的に示す。 配信サーバ100の機能構成の一例を概略的に示す。 眼鏡型デバイス200による音符アイコン140の表示例を概略的に示す。 配信サーバ100による選曲方法について説明するための説明図である。 眼鏡型デバイス200の構成の一例を概略的に示す。 制御装置300の機能構成の一例を概略的に示す。 配信サーバ100又は制御装置300として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。
本実施形態に係る配信サーバ100は、眼鏡型デバイス200によってセンシングされた眼鏡型デバイス200の周囲の環境に合わせて楽曲を選曲する機能を有してよい。例えば、配信サーバ100は、眼鏡型デバイス200の撮像画像や場所等を含む環境情報を眼鏡型デバイス200から受信して、環境に合う楽曲を選曲して眼鏡型デバイス200に配信する。従来の音楽配信サービスでは、ユーザ202が楽曲を選ばなければならなかったが、本実施形態に係る配信サーバ100によれば、例えば、ユーザ202が選択することなく環境に応じた推奨楽曲を自動的に眼鏡型デバイス200に再生させることができる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、システム10の一例を概略的に示す。システム10は、配信サーバ100及び眼鏡型デバイス200を備える。配信サーバ100は、眼鏡型デバイス200に対して楽曲を配信してよい。配信サーバ100は、ネットワーク20を介して眼鏡型デバイス200と通信してよい。配信サーバ100は、制御装置の一例であってよい。
眼鏡型デバイス200は、周囲をセンシングする機能及び楽曲を再生する機能を有している眼鏡型のデバイスであれば、どのようなものであってもよい。周囲をセンシングする機能は、周囲を撮像する機能を含んでよい。撮像する機能は、眼鏡型デバイス200が備えるカメラによって、眼鏡型デバイス200の装着者であるユーザ202の視界に対応する範囲を撮像する機能であってよい。ユーザ202の視界に対応する範囲とは、例えば、ユーザ202の視界と実質的に同じ範囲であってよい。眼鏡型デバイス200は、例えば、AR(Augmented Reality)グラスであってよい。
眼鏡型デバイス200は、各種センサを備えてよい。眼鏡型デバイス200は、カメラを備えてよい。眼鏡型デバイス200は、LiDAR(Light Detection and Ranging)を備えてよい。眼鏡型デバイス200は、GPS(Global Positioning System)センサ等のGNSS(Global Naviagtion Satellite System)センサを備えてよい。眼鏡型デバイス200は、加速度センサ及びジャイロセンサ等のその他のセンサを備えてもよい。また、眼鏡型デバイス200は、日時を特定可能であってよい。
眼鏡型デバイス200は、例えば、イヤフォンジャックを備え、イヤフォンジャックに接続されたイヤフォン及びヘッドフォン等を介して楽曲を音声出力してよい。眼鏡型デバイス200は、イヤフォン及びヘッドフォン等と無線接続をしてもよい。また、眼鏡型デバイス200は、例えば、ユーザ202の耳元付近に対応する位置に配置されたスピーカを備える。また、眼鏡型デバイス200は、例えば、いわゆる骨伝導イヤフォンを備える。
眼鏡型デバイス200は、楽曲が動画である場合に、音声出力とともに表示出力をしてもよい。眼鏡型デバイス200は、透過型(シースルー型)のデバイスであってよい。この場合、眼鏡型デバイス200は、楽曲を音声出力しつつ、レンズの適切な位置に動画を表示してよい。眼鏡型デバイス200は、いわゆるパススルー型のデバイスであってもよい。この場合、眼鏡型デバイス200は、ユーザ202の視界に対応する範囲を撮像している撮像画像を、常に非透過型のディスプレイに表示しており、楽曲を音声出力しつつ、ディスプレイの適切な位置に動画を表示してよい。
ネットワーク20は、クラウドを含む。ネットワーク20は、移動体通信ネットワークを含んでよい。移動体通信ネットワークは、LTE(Long Term Evolution)通信方式、3G(3rd Generation)通信方式、5G(5th Generation)通信方式、6G(6th Generation)通信方式以降の通信方式のいずれに準拠していてもよい。ネットワーク20は、Wi-Fi(登録商標)通信方式に対応していてよい。ネットワーク20には、Wi-Fiアクセスポイントを介してアクセス可能であってよい。ネットワーク20には、その他無線通信全般を利用してアクセス可能であってよい。
配信サーバ100は、ネットワーク20に有線接続されてよく、無線接続されてもよい。眼鏡型デバイス200は、移動体通信、Wi-Fi通信、その他無線通信全般によって、ネットワーク20に接続されてよい。
システム10は、通信端末400を備えてよい。通信端末400は、例えば、音楽サービス事業者が使用する端末であってよい。通信端末400は、例えば、PC(Personal Computer)であってよい。通信端末400は、スマートフォン及びタブレット端末等であってもよい。通信端末400は、ネットワーク20を介して配信サーバ100と通信してよい。通信端末400は、ネットワーク20に有線接続されてよく、無線接続されてもよい。通信端末400は、音楽サービス事業者が提供する楽曲を配信サーバ100に登録してよい。また、通信端末400は、音楽サービス事業者等によって生成された、環境に合う楽曲を特定可能なロジックを、配信サーバ100に登録してよい。
当該ロジックは、例えば、楽曲と、楽曲に関連する対象物とを対応付ける。例えば、当該ロジックは、CDに含まれる楽曲とCDジャケットの画像とを対応付ける。また、例えば、当該ロジックは、映画に関連する楽曲と当該映画のポスターとを対応付ける。また、例えば、当該ロジックは、例えば、歌手の楽曲と当該歌手の画像とを対応付ける。
また、当該ロジックは、例えば、複数の楽曲のそれぞれについて、楽曲を再生するのに適した環境を対応付ける。例えば、当該ロジックは、海と、海に合う楽曲とを対応付ける。また、例えば、当該ロジックは、桜と、桜に合う楽曲とを対応付ける。
通信端末400は、音楽サービス事業者以外の第三者が使用する端末であってもよい。通信端末400は、当該第三者によって生成されたロジックを、配信サーバ100に登録してよい。当該第三者は、例えば、任意の楽曲と、楽曲に関連する対象物とを対応付けるロジックを生成する。具体例として、当該第三者は、映画のテーマ曲と映画のポスターとを対応付けるロジックを生成する。
眼鏡型デバイス200は、各種センサを用いて特定した眼鏡型デバイス200の周囲の環境を示す環境情報を、配信サーバ100に送信してよい。眼鏡型デバイス200は、継続的に眼鏡型デバイス200の周囲の環境を特定して、環境情報を配信サーバ100に送信してよい。
眼鏡型デバイス200の周囲の環境の特定は、配信サーバ100が実行してもよい。この場合、眼鏡型デバイス200は、各種センサによる出力情報を配信サーバ100に送信してよい。例えば、眼鏡型デバイス200は、カメラによる撮像画像、LiDARによる周囲の測定結果、位置情報、及び日時情報等を配信サーバ100に送信してよい。配信サーバ100は、眼鏡型デバイス200から受信した出力情報を解析することによって、眼鏡型デバイス200の周囲の環境を特定してよい。
配信サーバ100は、眼鏡型デバイス200の周囲の環境に合う楽曲を選択する。配信サーバ100は、予め登録されたロジックを用いて、眼鏡型デバイス200の環境に合う楽曲を選択してよい。例えば、配信サーバ100は、眼鏡型デバイス200の撮像範囲に含まれる対象物に基づいて、楽曲を選択してよい。配信サーバ100は、選択した楽曲を眼鏡型デバイス200に配信してよい。
図2は、配信サーバ100の機能構成の一例を概略的に示す。配信サーバ100は、格納部102、入力受付部104、楽曲情報受信部106、デバイス情報受信部108、環境特定部110、楽曲選択部112、及び楽曲制御部114を備える。
入力受付部104は、各種入力を受け付ける。入力受付部104は、配信サーバ100が備える入力デバイスを用いた入力を受け付けてよい。また、入力受付部104は、ネットワーク20を介した入力を受け付けてよい。
入力受付部104は、例えば、配信サーバ100の管理者等による楽曲の登録を受け付ける。入力受付部104は、楽曲を格納部102に格納してよい。また、入力受付部104は、例えば、配信サーバ100の管理者等による、環境に合う楽曲を特定可能なロジックの登録を受け付ける。入力受付部104は、ロジックを格納部102に格納してよい。
格納部102は、楽曲に対応付けて、楽曲の歌詞のテキストデータを格納してもよい。格納部102は、楽曲と、楽曲の歌詞に含まれるキーワードとを対応付けるロジックを格納してもよい。当該ロジックによれば、例えば、桜と、歌詞に桜が含まれる楽曲とが対応付けられる。これにより、例えば、配信サーバ100は、眼鏡型デバイス200の撮像範囲に桜が含まれる場合に、歌詞に桜が含まれる楽曲を選択することが可能となる。
楽曲情報受信部106は、例えば、外部から楽曲を受信する。楽曲情報受信部106は、通信端末400から楽曲を受信してよい。楽曲情報受信部106は、受信した楽曲を格納部102に格納してよい。また、楽曲情報受信部106は、例えば、外部から、環境に合う楽曲を特定可能なロジックを受信する。楽曲情報受信部106は、通信端末400からロジックを受信してよい。楽曲情報受信部106は受信したロジックを格納部102に格納してよい。
デバイス情報受信部108は、眼鏡型デバイス200から各種情報を受信する。デバイス情報受信部108は、例えば、眼鏡型デバイス200から環境情報を受信する。環境情報は、眼鏡型デバイス200の撮像範囲に含まれる対象物を含んでよい。環境情報は、眼鏡型デバイス200の位置情報を含んでよい。環境情報は、眼鏡型デバイス200が位置する場所を示す場所情報を含んでよい。場所情報は、海や山等の、場所のカテゴリを示してよい。場所情報は、地名を示してもよい。また、環境情報は、日時情報を含んでよい。
デバイス情報受信部108は、例えば、眼鏡型デバイス200から、眼鏡型デバイス200の各種センサによる出力情報を受信する。出力情報は、カメラによる撮像画像を含んでよい。出力情報は、LiDARによる測定結果を含んでよい。出力情報は、位置情報を含んでよい。
環境特定部110は、眼鏡型デバイス200の環境を特定する。環境特定部110は、デバイス情報受信部108が眼鏡型デバイス200から環境情報を受信した場合、環境情報に基づいて眼鏡型デバイス200の環境を特定してよい。環境特定部110は、例えば、眼鏡型デバイス200の撮像範囲に含まれる対象物を特定する。環境特定部110は、対象物特定部の一例であってよい。環境特定部110は、例えば、眼鏡型デバイス200が位置する場所を特定する。
環境特定部110は、デバイス情報受信部108が眼鏡型デバイス200から出力情報を受信した場合、出力情報を解析することによって眼鏡型デバイス200の環境を特定してよい。環境特定部110は、例えば、カメラによる撮像画像及びLiDARによる測定結果の少なくともいずれかを解析することによって、眼鏡型デバイス200の撮像範囲に含まれる対象物を特定する。また、環境特定部110は、眼鏡型デバイス200の位置情報を用いて、眼鏡型デバイス200が位置する場所を特定する。環境特定部110は、位置情報と、カメラによる撮像画像と、LiDARによる測定結果の少なくともいずれかとを用いて、眼鏡型デバイス200が位置する場所を特定してもよい。
楽曲選択部112は、眼鏡型デバイス200に配信する楽曲を選択する。楽曲選択部112は、格納部102から、楽曲を選択してよい。楽曲選択部112は、楽曲情報受信部106が受信した楽曲から、楽曲を選択してもよい。
楽曲選択部112は、再生対象となる1つの楽曲を選択してよい。また、楽曲選択部112は、再生候補となる複数の楽曲を選択してもよい。楽曲選択部112によって1つの楽曲が選択された場合、楽曲制御部114が、眼鏡型デバイス200に、当該楽曲を自動的に再生させたり、眼鏡型デバイス200に、当該楽曲を手動で再生させたりしてよい。手動で再生とは、ユーザ202の指示に応じて再生することであってよい。楽曲選択部112によって複数の楽曲が選択された場合、楽曲制御部114が、眼鏡型デバイス200に、複数の楽曲のうちの1つの楽曲を自動的に再生させたり、複数の楽曲を順番に再生させたり、複数の楽曲を手動で再生させたりしてよい。複数の楽曲を手動で再生とは、複数の楽曲を候補としてユーザ202に提示して、ユーザ202の指示に応じて再生することであってよい。楽曲制御部114による制御の詳細は、後述する。
楽曲選択部112は、環境特定部110によって特定された眼鏡型デバイス200の環境に基づいて楽曲を選択してよい。楽曲選択部112は、例えば、環境特定部110によって特定された眼鏡型デバイス200の撮像範囲に含まれる対象物に基づいて楽曲を選択する。具体例として、楽曲選択部112は、格納部102に格納されているロジックを参照して、眼鏡型デバイス200の撮像範囲に含まれる対象物に対応する楽曲を選択する。これにより、楽曲選択部112は、配信サーバ100の管理者、音楽サービス事業者、及び第三者等による知見に基づいて決定された環境に合う推奨楽曲を選択することができる。
楽曲選択部112は、環境特定部110によって特定された対象物と、眼鏡型デバイス200の位置情報及び日時情報に基づいて、楽曲を選択してよい。具体例として、楽曲選択部112は、対象物:「桜」、場所:「学校」、日時:「3月10日の昼」が特定された場合に、ロジックによって桜、学校、及び3月に対して対応付けられた卒業に関連する楽曲を選択したり、歌詞に桜及び学校が含まれる楽曲を選択したりする。このような、ロジックによる条件を満たす楽曲が格納部102に複数格納されている場合、楽曲選択部112は、複数の楽曲のうちの1つを再生対象として選択してよく、再生候補となる複数の楽曲を選択してもよい。複数の楽曲のうちの1つを選択する場合、楽曲選択部112は、ランダムに選択してもよいし、予め設定された条件に従って選択してもよい。複数の楽曲を選択する場合、楽曲選択部112は、ロジックによる条件を満たす楽曲の全てを選択してよく、ロジックによる条件を満たす楽曲のうち、予め定められた数の楽曲を選択してもよい。このように、楽曲選択部112は、複数の情報に基づいて楽曲を選択することにより、眼鏡型デバイス200が置かれている環境に、より適した楽曲を選択できる。
楽曲選択部112は、眼鏡型デバイス200の撮像範囲に含まれる1つの対象物に基づいて楽曲を選択してよい。具体例として、楽曲選択部112は、眼鏡型デバイス200の撮像範囲に海が含まれる場合に、ロジックによって海に対応付けられた楽曲を選択したり、歌詞に海が含まれる楽曲を選択したりする。
楽曲選択部112は、眼鏡型デバイス200の撮像範囲に複数の対象物が含まれる場合に、予め定められた条件に従って、複数の対象物から1つの対象物を選択してよい。例えば、楽曲選択部112は、複数の対象物のうち、撮像範囲に占める割合がより多い対象物を選択する。具体例として、楽曲選択部112は、複数の対象物のうち、撮像範囲に占める割合が最も多い対象物を選択する。また、例えば、楽曲選択部112は、複数の対象物のうち、ユーザ202の視線がより長く向けられた対象物を選択する。具体例として、楽曲選択部112は、複数の対象物のうち、ユーザ202の視線が最も長く向けられた対象物を選択する。これらによって、楽曲選択部112は、ユーザ202の意識により強く残っている可能性が高い対象物に関連する楽曲を選択することができる。
楽曲選択部112は、眼鏡型デバイス200の撮像範囲に含まれる複数の対象物に基づいて楽曲を選択してよい。具体例として、楽曲選択部112は、眼鏡型デバイス200の撮像範囲に、海と、自動車の運転席から見える自動車内の対象物とが含まれる場合に、ロジックによって海のドライブに対応付けられた楽曲を選択する。
楽曲選択部112は、眼鏡型デバイス200の撮像範囲に含まれる複数の対象物の全てに基づいて楽曲を選択してよい。また、楽曲選択部112は、眼鏡型デバイス200の撮像範囲に含まれる複数の対象物から、予め定められた条件に従って選択した複数の対象物に基づいて楽曲を選択してもよい。楽曲選択部112は、例えば、眼鏡型デバイス200の撮像範囲に含まれる複数の対象物から、予め定められた数の複数の対象物を選択する。楽曲選択部112は、例えば、撮像範囲に占める割合が多い順に選択した予め定められた数の対象物に基づいて、楽曲を選択する。また、楽曲選択部112は、例えば、ユーザ202の視線が向けられた長さが長い順に選択した予め定められた数の対象物に基づいて、楽曲を選択する。
楽曲選択部112は、眼鏡型デバイス200の撮像範囲に、楽曲に関連する対象物が含まれる場合に、当該対象物に関連する楽曲を選択してよい。楽曲選択部112は、眼鏡型デバイス200の撮像範囲に、楽曲に関連する対象物が複数含まれる場合に、複数の対象物のそれぞれに関連する楽曲を選択してよい。具体例として、楽曲選択部112は、眼鏡型デバイス200の撮像範囲に、CDジャケットの画像及び映画のポスターが含まれる場合に、CDに収録されている楽曲と、映画のテーマ曲とを選択する。
楽曲制御部114は、楽曲選択部112によって選択された楽曲を、眼鏡型デバイス200において再生するよう制御する。楽曲制御部114は、楽曲選択部112によって選択された楽曲を眼鏡型デバイス200に対して送信し、眼鏡型デバイス200に楽曲を再生させてよい。楽曲制御部114は、眼鏡型デバイス200に楽曲を音声出力させてよい。楽曲制御部114は、楽曲が動画である場合、眼鏡型デバイス200に楽曲を音声出力及び表示出力させてよい。
楽曲制御部114は、例えば、楽曲選択部112によって1つの楽曲が選択された場合に、当該楽曲を眼鏡型デバイス200に送信して、眼鏡型デバイス200に自動的に再生させる。眼鏡型デバイス200による楽曲の再生は、手動によって行われてもよい。例えば、楽曲制御部114が、当該楽曲を眼鏡型デバイス200に送信し、眼鏡型デバイス200が、ユーザ202の再生指示に応じて、当該楽曲を再生する。ユーザ202の再生指示は、例えば、「曲再生」というメニューの選択であってよい。また、ユーザ202の再生指示は、例えば、「曲変更」というメニューの選択であってよい。
楽曲制御部114は、例えば、楽曲選択部112によって複数の楽曲が選択された場合に、複数の楽曲のうちのいずれか1つを眼鏡型デバイス200に送信して、眼鏡型デバイス200に再生させる。また、楽曲制御部114は、例えば、楽曲選択部112によって複数の楽曲が選択された場合に、当該複数の楽曲を選択可能に眼鏡型デバイス200に表示させ、ユーザ202によって選択された楽曲を、眼鏡型デバイス200に再生させてもよい。表示方法は、例えば、複数の楽曲を含むレコメンドリストの形式であってよく、その他任意の形式であってよい。
また、楽曲選択部112が、複数の楽曲を順番に選択し、楽曲制御部114が、楽曲選択部112によって選択された順番に、楽曲を眼鏡型デバイス200に再生させてもよい。例えば、眼鏡型デバイス200の撮像範囲に、CDジャケットの画像及び映画のポスターが含まれており、CDジャケットの方が長く視線が向けられていた場合、楽曲選択部112は、順にCDに収録されている楽曲と、映画のテーマ曲とを選択し、楽曲制御部114が、選択順に従って、CDに収録されている楽曲と、映画のテーマ曲とを眼鏡型デバイス200に再生させる。また、楽曲選択部112は、撮像範囲に占める割合が多い順に、CDに収録されている楽曲と、映画のテーマ曲とを選択してもよい。この場合も、楽曲制御部114は、選択順に、CDに収録されている楽曲と、映画のテーマ曲とを眼鏡型デバイス200に再生させる。また、上述したように、楽曲制御部114が、CDに収録されている楽曲と、映画のテーマ曲とを含むレコメンドリストを眼鏡型デバイス200に表示させ、ユーザ202によって選択された楽曲を、眼鏡型デバイス200に再生させてもよい。
楽曲制御部114は、楽曲選択部112によって、複数の対象物のそれぞれに関連する楽曲が選択された場合に、眼鏡型デバイス200に、複数の対象物のそれぞれに対応する位置に、楽曲を選択するためのアイコンを表示させてよい。眼鏡型デバイス200は、複数のアイコンのうち、ユーザ202によって選択されたアイコンに対応する楽曲を再生してよい。
図3は、眼鏡型デバイス200による音符アイコン140の表示例を概略的に示す。図3は、実空間に存在する、楽曲を宣伝する看板40に、当該看板40によって宣伝されている楽曲を選択するための音符アイコン140を重畳表示した様子を示している。楽曲制御部114は、眼鏡型デバイス200の撮像範囲における看板40の位置を認識し、看板40の位置に対応する位置に、音符アイコン140を表示させてよい。
看板40は、例えば、CDジャケットの画像を掲示していてよく、音符アイコン140は、CDに収録されている楽曲に対応していてよい。ユーザ202によって音符アイコン140が選択されたことに応じて、楽曲制御部114は、音符アイコン140に対応する楽曲を眼鏡型デバイス200に再生させてよい。
図3に示すような表示を提供することによって、ユーザ202に、視界内の対象物に関係する楽曲が存在することを把握させることができる。また、ユーザ202に、楽曲の候補を提示することができる。
図4は、配信サーバ100による選曲方法について説明するための説明図である。ここでは、眼鏡型デバイス200の撮像範囲が、ユーザ202が乗車している自動車の車窓から見える海152、自動車の移動先の、カフェなどの店舗外観154、店内で提供された飲食物156の順に切り替わる場合を想定する。そして、楽曲172を再生している状態で、選曲タイミング160において楽曲174に切り替える場合における楽曲174の選択方法について説明する。
楽曲選択部112は、例えば、選曲タイミング160における眼鏡型デバイス200の撮像範囲に含まれる対象物に基づいて、格納部102から楽曲を選択する。図4に示す例では、選曲タイミング160において、眼鏡型デバイス200の撮像範囲には飲食物156が含まれるので、楽曲選択部112は、飲食物156に対応する楽曲を選択する。そして、楽曲制御部114が、楽曲選択部112によって選択された楽曲を眼鏡型デバイス200において再生するよう制御する。これにより、選曲のタイミングにおいて現に撮像範囲に含まれる対象物に関連する楽曲を選択することができるので、例えば、ユーザ202のその時点での気分等に適した楽曲を提供することができる。楽曲選択部112は、眼鏡型デバイス200の撮像範囲に飲食物156以外の対象物がさらに含まれる場合、当該対象物と飲食物156とに基づいて楽曲を選択してもよい。
楽曲選択部112は、例えば、選曲タイミング160において、前に再生していた楽曲の再生中に眼鏡型デバイス200の撮像範囲に含まれていた時間がより長い対象物に基づいて、楽曲を選択する。楽曲選択部112は、例えば、選曲タイミング160において、前に再生していた楽曲の再生中に眼鏡型デバイス200の撮像範囲に含まれていた時間が最も長い対象物に基づいて、楽曲を選択する。図4に示す例では、楽曲選択部112は、前に再生していた楽曲172の再生中に眼鏡型デバイス200の撮像範囲に含まれていた時間がより長い海152に合う楽曲を選択してよい。そして、楽曲制御部114が、楽曲選択部112によって選択された楽曲を眼鏡型デバイス200において再生するよう制御する。これにより、ユーザ202の意識により強く残っている対象物に関連する楽曲を選択することができ、ユーザ202の気分等に適した楽曲を提供することができる。
選曲タイミング160は、前の楽曲の再生が終了した時点であってよい。また、選曲タイミング160は、前の楽曲の再生中に、ユーザ202が楽曲の変更を指示したタイミングであってよい。また、選曲タイミング160は、何も再生していない状態において、ユーザ202が楽曲の再生開始を指示したタイミングであってよい。
また、選曲タイミング160は、前の楽曲の再生が予め定められた時間継続して行われた時点であってよい。当該時間は、30秒及び1分等の任意の時間であってよく、変更可能であってよい。これにより、例えば、1分毎に、その時の環境に応じた楽曲が再生される楽曲視聴環境をユーザ202に提供することができる。
図1から図4を用いて説明した実施形態では、眼鏡型デバイス200の環境に合った楽曲の選択を配信サーバ100が実施する場合を例に挙げて説明したが、これに限らず、眼鏡型デバイス200が実施してもよい。
図5は、眼鏡型デバイス200の構成の一例を概略的に示す。眼鏡型デバイス200は、リム212及びテンプル218を有するフレーム210を備える。眼鏡型デバイス200は、眼鏡型デバイス200における各種制御を実行する制御装置300を備える。眼鏡型デバイス200は、外部の情報通信機器いわゆる、スマートフォンと接続して情報や電力を受け取るための有線、および無線の接続部を備えてもよい。
図5における制御装置300の配置は一例であり、制御装置300は、フレーム210の他の位置に配置されてもよい。例えば、制御装置300は、フレーム210の外部に配置されてもよい。また、例えば、制御装置300は、テンプル218内に配置されてもよい。具体例として、制御装置300は、テンプル218の先端部、すなわち、モダンに配置されてもよい。制御装置300は、バッテリを備えてよい。制御装置300とバッテリは、別体として、フレーム210の別の位置に配置されてもよい。
眼鏡型デバイス200は、カメラ220を備えてよい。図5におけるカメラ220の配置は一例であり、カメラ220は、他の位置に配置されてもよい。
眼鏡型デバイス200は、センサ222を備えてよい。センサ222は、眼鏡型デバイス200の周囲の環境を特定するためのセンサであってよい。センサ222は、LiDARを含んでよい。センサ222は、測距センサを含んでもよい。図5では、センサ222がブリッジ214に配置されている場合を例示しているが、図5におけるセンサ222の配置は一例であり、センサ222は、他の位置に配置されてもよい。
眼鏡型デバイス200は、視線検出部224を備えてよい。視線検出部224は、眼鏡型デバイス200の装着者であるユーザ202の視線を検出する。視線検出部224は、例えば、ユーザ202の目を撮像して監視することによって、ユーザ202の視線を検出する。図5における視線検出部224の配置は一例であり、視線検出部224は、他の位置に配置されてもよい。
眼鏡型デバイス200は、音声出力部230を備える。音声出力部230は、イヤフォンジャックを備え、イヤフォンジャックに接続されたイヤフォン及びヘッドフォン等を介して楽曲を音声出力してよい。音声出力部230は、イヤフォン及びヘッドフォン等と無線接続をしてもよい。また、音声出力部230は、例えば、スピーカを備えてよい。また、音声出力部230は、例えば、骨伝導イヤフォンを備えてよい。
制御装置300は、レンズ216への表示機能を備えてよい。レンズ216は、透明又は半透明のディスプレイであってよく、制御装置300は、レンズ216に各種表示を実行させてよい。すなわち、眼鏡型デバイス200は、透明又は半透明のディスプレイ型のデバイスであってよい。また、制御装置300が、レンズ216に対して表示を投影する機能を有してもよい。すなわち、眼鏡型デバイス200は、投影型のデバイスであってよい。なお、眼鏡型デバイス200は、非透過型のデバイスであってもよい。
図6は、制御装置300の機能構成の一例を概略的に示す。制御装置300は、格納部302、入力受付部304、楽曲情報受信部306、情報取得部308、環境特定部310、楽曲選択部312、及び楽曲制御部314を備える。
入力受付部304は、各種入力を受け付ける。入力受付部304は、眼鏡型デバイス200の任意の位置に配置された操作部を介して、眼鏡型デバイス200を装着したユーザ202からの各種入力を受け付けてよい。入力受付部304は、例えば、フレーム210の任意の位置に配置されたボタン等の入力部を介して、ユーザ202からの各種入力を受け付ける。
入力受付部304は、例えば、スマートフォン等の携帯端末を介して、眼鏡型デバイス200を装着したユーザ202からの各種入力を受け付けてもよい。眼鏡型デバイス200は、例えば、Wi-Fi、Bluetooth(登録商標)及びZigbee(登録商標)等の短距離無線通信方式を用いて、携帯端末と無線接続を確立してよい。
楽曲情報受信部306は、配信サーバ100から楽曲を受信してよい。楽曲情報受信部306は受信した楽曲を格納部302に格納してよい。また、楽曲情報受信部306は、配信サーバ100から、環境に合う楽曲を特定可能なロジックを受信してよい。楽曲情報受信部306は受信したロジックを格納部302に格納してよい。
情報取得部308は、眼鏡型デバイス200が備える各種センサから出力情報を取得する。情報取得部308は、例えば、カメラ220から撮像画像を取得する。情報取得部308は、例えば、センサ222から出力情報を取得する。情報取得部308は、例えば、GNSSセンサから位置情報を取得する。
環境特定部310は、眼鏡型デバイス200の環境を特定する。環境特定部310は、情報取得部308が取得した情報に基づいて、眼鏡型デバイス200の環境を特定してよい。環境特定部310は、情報取得部308が取得した情報を解析することによって眼鏡型デバイス200の環境を特定してよい。環境特定部310は、例えば、カメラ220による撮像画像及びセンサ222による測定結果の少なくともいずれかを解析することによって、眼鏡型デバイス200の撮像範囲に含まれる対象物を特定する。また、環境特定部310は、眼鏡型デバイス200の位置情報を用いて、眼鏡型デバイス200が位置する場所を特定する。環境特定部310は、位置情報と、カメラ220による撮像画像と、センサ222による測定結果とを用いて、眼鏡型デバイス200が位置する場所を特定してもよい。
楽曲選択部312は、楽曲を選択する。楽曲選択部312は、格納部302から、楽曲を選択してよい。楽曲選択部312は、楽曲情報受信部306が受信した楽曲から、楽曲を選択してもよい。楽曲選択部312は、再生対象となる1つの楽曲を選択してよい。また、楽曲選択部312は、再生候補となる複数の楽曲を選択してもよい。楽曲選択部312は、環境特定部310によって特定された眼鏡型デバイス200の環境に基づいて楽曲を選択してよい。楽曲選択部312は、環境特定部310によって特定された眼鏡型デバイス200の撮像範囲に含まれる対象物に基づいて楽曲を選択してよい。楽曲選択部312は、楽曲選択部112と同様の方法によって、楽曲を選択してよい。
楽曲制御部314は、楽曲選択部312によって選択された楽曲を再生するよう制御する。楽曲制御部314は、楽曲選択部312によって選択された楽曲を音声出力部230に音声出力させてよい。楽曲制御部314は、楽曲が動画である場合、楽曲を音声出力部230に音声出力させ、レンズ216に表示出力してよい。
楽曲制御部314は、例えば、楽曲選択部312によって1つの楽曲が選択された場合に、当該楽曲を自動的に再生するよう制御する。また、楽曲制御部314は、ユーザ202の再生指示に応じて、楽曲を再生するよう制御してもよい。ユーザ202の再生指示は、例えば、「曲再生」というメニューの選択であってよい。また、ユーザ202の再生指示は、例えば、「曲変更」というメニューの選択であってよい。
楽曲制御部314は、例えば、楽曲選択部312によって複数の楽曲が選択された場合に、複数の楽曲のうちのいずれか1つを再生するよう制御する。また、楽曲制御部314は、例えば、楽曲選択部312によって複数の楽曲が選択された場合に、当該複数の楽曲を選択可能にレンズ216に表示させ、ユーザ202によって選択された楽曲を再生するよう制御してもよい。表示方法は、例えば、複数の楽曲を含むレコメンドリストの形式であってよく、その他任意の形式であってよい。
楽曲制御部314は、楽曲選択部312によって、複数の対象物のそれぞれに関連する楽曲が選択された場合に、レンズ216の、複数の対象物のそれぞれに対応する位置に、楽曲を選択するためのアイコンを表示させてよい。楽曲制御部314は、複数のアイコンのうち、ユーザ202によって選択されたアイコンに対応する楽曲を再生するよう制御してよい。
図7は、配信サーバ100又は制御装置300として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボード又はタッチパネルのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
プログラムは、ICカードのようなコンピュータ可読記憶媒体によって提供されてよい。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
また、CPU1212は、記憶装置1224、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラム又はソフトウェアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 システム、20 ネットワーク、40 看板、100 配信サーバ、102 格納部、104 入力受付部、106 楽曲情報受信部、108 デバイス情報受信部、110 環境特定部、112 楽曲選択部、114 楽曲制御部、140 音符アイコン、152 海、154 店舗外観、156 飲食物、160 選曲タイミング、172 楽曲、174 楽曲、200 眼鏡型デバイス、202 ユーザ、210 フレーム、212 リム、214 ブリッジ、216 レンズ、218 テンプル、220 カメラ、222 センサ、224 視線検出部、230 音声出力部、300 制御装置、302 格納部、304 入力受付部、306 楽曲情報受信部、308 情報取得部、310 環境特定部、312 楽曲選択部、314 楽曲制御部、400 通信端末、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ

Claims (8)

  1. 眼鏡型デバイスの撮像範囲に含まれる対象物を特定する対象物特定部と、
    前記対象物に基づいて楽曲を選択する楽曲選択部と、
    前記眼鏡型デバイスにおいて前記楽曲を再生するよう制御する楽曲制御部と
    を備え
    前記楽曲選択部は、前記眼鏡型デバイスの前記撮像範囲に複数の対象物が含まれる場合に、前記複数の対象物のうち、前記眼鏡型デバイスを装着しているユーザの視線が最も長く向けられた対象物に基づいて楽曲を選択する、制御装置。
  2. 前記楽曲選択部は、前記眼鏡型デバイスの位置情報及び日時情報にさらに基づいて前記楽曲を選択する、請求項1に記載の制御装置。
  3. 前記楽曲選択部は、選曲のタイミングにおける前記眼鏡型デバイスの撮像範囲に含まれる対象物に基づいて前記楽曲を選択する、請求項1又は2に記載の制御装置。
  4. 前記選曲のタイミングは、前の楽曲の再生が終了した時点又は前記眼鏡型デバイスのユーザが選択した時点である、請求項に記載の制御装置。
  5. 前記選曲のタイミングは、前の楽曲の再生が予め定められた時間継続して行われた時点である、請求項に記載の制御装置。
  6. コンピュータを、請求項1からのいずれか一項に記載の制御装置として機能させるためのプログラム。
  7. 請求項1からのいずれか一項に記載の制御装置と、
    前記眼鏡型デバイスと
    を備えるシステム。
  8. コンピュータによって実行される制御方法であって、
    眼鏡型デバイスの撮像範囲に含まれる対象物を特定する対象物特定段階と、
    前記対象物に基づいて楽曲を選択する楽曲選択段階と、
    前記眼鏡型デバイスにおいて前記楽曲を再生するよう制御する楽曲制御段階と
    を備え
    前記楽曲選択段階は、前記眼鏡型デバイスの前記撮像範囲に複数の対象物が含まれる場合に、前記複数の対象物のうち、前記眼鏡型デバイスを装着しているユーザの視線が最も長く向けられた対象物に基づいて楽曲を選択する、制御方法。
JP2020178305A 2020-10-23 2020-10-23 制御装置、プログラム、システム、及び制御方法 Active JP7140810B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020178305A JP7140810B2 (ja) 2020-10-23 2020-10-23 制御装置、プログラム、システム、及び制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020178305A JP7140810B2 (ja) 2020-10-23 2020-10-23 制御装置、プログラム、システム、及び制御方法

Publications (2)

Publication Number Publication Date
JP2022069230A JP2022069230A (ja) 2022-05-11
JP7140810B2 true JP7140810B2 (ja) 2022-09-21

Family

ID=81521982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020178305A Active JP7140810B2 (ja) 2020-10-23 2020-10-23 制御装置、プログラム、システム、及び制御方法

Country Status (1)

Country Link
JP (1) JP7140810B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146980A (ja) 2004-11-16 2006-06-08 Sony Corp 音楽コンテンツの再生装置、音楽コンテンツの再生方法および音楽コンテンツおよびその属性情報の記録装置
JP2008072322A (ja) 2006-09-13 2008-03-27 Nippon Telegr & Teleph Corp <Ntt> 携帯情報端末、及びコンテンツ情報の取得/操作方法、並びにこの方法のプログラム
JP2009123229A (ja) 2008-12-25 2009-06-04 Japan Research Institute Ltd 情報管理装置、情報管理システム、及びプログラム
JP2011062390A (ja) 2009-09-18 2011-03-31 Azuraito:Kk ゲーム装置の制御プログラム
JP2011197477A (ja) 2010-03-19 2011-10-06 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP3182350U (ja) 2013-01-08 2013-03-21 株式会社 弘久社 香りと音楽とストーリーの融合カード
WO2014181380A1 (ja) 2013-05-09 2014-11-13 株式会社ソニー・コンピュータエンタテインメント 情報処理装置およびアプリケーション実行方法
US10140515B1 (en) 2016-06-24 2018-11-27 A9.Com, Inc. Image recognition and classification techniques for selecting image and audio data

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190325A (ja) * 1996-01-09 1997-07-22 Canon Inc 表示装置
JP5467527B2 (ja) * 2010-09-06 2014-04-09 株式会社デンソー 車載機器制御装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146980A (ja) 2004-11-16 2006-06-08 Sony Corp 音楽コンテンツの再生装置、音楽コンテンツの再生方法および音楽コンテンツおよびその属性情報の記録装置
JP2008072322A (ja) 2006-09-13 2008-03-27 Nippon Telegr & Teleph Corp <Ntt> 携帯情報端末、及びコンテンツ情報の取得/操作方法、並びにこの方法のプログラム
JP2009123229A (ja) 2008-12-25 2009-06-04 Japan Research Institute Ltd 情報管理装置、情報管理システム、及びプログラム
JP2011062390A (ja) 2009-09-18 2011-03-31 Azuraito:Kk ゲーム装置の制御プログラム
JP2011197477A (ja) 2010-03-19 2011-10-06 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP3182350U (ja) 2013-01-08 2013-03-21 株式会社 弘久社 香りと音楽とストーリーの融合カード
WO2014181380A1 (ja) 2013-05-09 2014-11-13 株式会社ソニー・コンピュータエンタテインメント 情報処理装置およびアプリケーション実行方法
US10140515B1 (en) 2016-06-24 2018-11-27 A9.Com, Inc. Image recognition and classification techniques for selecting image and audio data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
関 惠美 外2名,ゲームBGMによる聴覚AR体験プラットフォームの開発,情報処理学会 研究報告 デジタルコンテンツクリエーション(DCC) 2018-DCC-018 [online],日本,情報処理学会,2018年01月19日,Vol.2018-GN-103, No.43 ,第1-5ページ,インターネット<URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=185656&file_id=1&file_no=1>

Also Published As

Publication number Publication date
JP2022069230A (ja) 2022-05-11

Similar Documents

Publication Publication Date Title
US9024844B2 (en) Recognition of image on external display
US9952433B2 (en) Wearable device and method of outputting content thereof
US10432841B2 (en) Wearable apparatus and method for selectively categorizing information derived from images
US9760778B1 (en) Object recognition and navigation from ongoing video
US8275893B1 (en) Systems and methods for accessing an interaction state between multiple devices
US9583032B2 (en) Navigating content using a physical object
KR20170060485A (ko) 표시 모드에 따른 콘텐트를 표시하기 위한 전자 장치 및 방법
KR102657519B1 (ko) 음성을 기반으로 그래픽 데이터를 제공하는 전자 장치 및 그의 동작 방법
CN103136326A (zh) 与媒体一起呈现评论的系统和方法
KR20160089742A (ko) 콘텐트 편집 장치 및 방법
KR20170125618A (ko) 증강현실 플랫폼을 통해 가상 영역에 표시할 컨텐츠를 생성하는 방법 및 이를 지원하는 전자 장치
US9367613B1 (en) Song identification trigger
JPWO2010131333A1 (ja) コンテンツ検索装置、コンテンツ検索方法、コンテンツ検索プログラムおよび記録媒体
KR20180033834A (ko) 웨어러블 장치 및 이의 위젯 제공 방법
US10194121B1 (en) Content capture
US9877084B2 (en) Tagging and sharing media content clips with dynamic ad insertion
WO2016034952A1 (en) Activity based text rewriting using language generation
US20240071377A1 (en) Method and device for presenting a cgr environment based on audio data and lyric data
US20230351711A1 (en) Augmented Reality Platform Systems, Methods, and Apparatus
JP2023525091A (ja) 画像特殊効果の設定方法、画像識別方法、装置および電子機器
US20150012537A1 (en) Electronic device for integrating and searching contents and method thereof
JP7140810B2 (ja) 制御装置、プログラム、システム、及び制御方法
US11874956B2 (en) Displaying augmented reality responsive to an input
KR102104498B1 (ko) 슬라이드 쇼를 제공하는 시스템 및 방법
US20230093331A1 (en) Shopper-based commerce driven presentation of required-but-missing product related information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R150 Certificate of patent or registration of utility model

Ref document number: 7140810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150