JP2019023902A - プログラムおよび情報処理装置 - Google Patents

プログラムおよび情報処理装置 Download PDF

Info

Publication number
JP2019023902A
JP2019023902A JP2018186787A JP2018186787A JP2019023902A JP 2019023902 A JP2019023902 A JP 2019023902A JP 2018186787 A JP2018186787 A JP 2018186787A JP 2018186787 A JP2018186787 A JP 2018186787A JP 2019023902 A JP2019023902 A JP 2019023902A
Authority
JP
Japan
Prior art keywords
content
information processing
processing system
display
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018186787A
Other languages
English (en)
Inventor
智裕 石井
Tomohiro Ishii
智裕 石井
哲男 池田
Tetsuo Ikeda
哲男 池田
厚史 泉原
Atsushi Izumihara
厚史 泉原
雅成 小山
Masanari Koyama
雅成 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2019023902A publication Critical patent/JP2019023902A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】複数のコンテンツと現在再生されているコンテンツとの関係がユーザによってより直感的に把握される情報処理システム、情報処理方法およびプログラムを提供する。【解決手段】情報処理システム100aは、一連の時間の流れを示す表示オブジェクトが表示されるように表示出力部130aを制御する出力制御部を備える。表示オブジェクトは、コンテンツの再生位置を表し、複数の該コンテンツのそれぞれに対応する複数の領域を含む。【選択図】図1

Description

本開示は、情報処理システム、情報処理方法およびプログラムに関する。
近年、情報通信技術の発展に伴ってコンテンツの種類も多様化してきている。コンテンツが再生されている間はコンテンツの再生位置を示す表示オブジェクトが表示されるのが一般的である(例えば、特許文献1参照)。ユーザは、かかる表示オブジェクトを閲覧することにより、コンテンツの再生位置を把握することが可能となる。
特開2010−165337号公報
しかし、複数のコンテンツが順次に再生される場合も想定される。かかる場合には、複数のコンテンツと現在再生されているコンテンツとの関係がユーザによってより直感的に把握されることが望まれる。
本開示によれば、一連の時間の流れを示す表示オブジェクトが表示されるように表示出力部を制御する出力制御部を備え、前記表示オブジェクトは、コンテンツの再生位置を表し、複数の該コンテンツのそれぞれに対応する複数の領域を含む、情報処理システムが提供される。
本開示によれば、一連の時間の流れを示す表示オブジェクトが表示されるように表示出力部を制御することを含み、前記表示オブジェクトは、コンテンツの再生位置を表し、複数の該コンテンツのそれぞれに対応する複数の領域を含む、情報処理方法が提供される。
本開示によれば、コンピュータを、一連の時間の流れを示す表示オブジェクトが表示されるように表示出力部を制御する出力制御部を備え、前記表示オブジェクトは、コンテンツの再生位置を表し、複数の該コンテンツのそれぞれに対応する複数の領域を含む、情報処理システムとして機能させるためのプログラムが提供される。
以上説明したように本開示によれば、複数のコンテンツと現在再生されているコンテンツとの関係がユーザによってより直感的に把握され得る。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理システムの構成例を示す説明図である。 本開示の一実施形態に係る情報処理システムの構成例を示す説明図である。 本開示の一実施形態に係る情報処理システムの構成例を示す説明図である。 本開示の一実施形態に係る情報処理システムの構成例を示す説明図である。 本開示の一実施形態に係る情報処理システムの機能構成例を示す説明図である。 本開示の一実施形態にかかる情報処理システム100によって表示制御されるGUIの例を示す図である。 本開示の一実施形態にかかる情報処理システム100によって表示制御されるGUIの例を示す図である。 本開示の一実施形態にかかる情報処理システム100によって表示制御されるGUIの例を示す図である。 本開示の一実施形態にかかる情報処理システム100によって表示制御されるGUIの例を示す図である。 本開示の一実施形態にかかる情報処理システム100によって表示制御されるGUIの例を示す図である。 本開示の一実施形態にかかる情報処理システムのハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
1.本開示の一実施形態
1.1.システム構成例
1.2.機能構成例
1.3.表示制御例
1.4.ハードウェア構成例
2.むすび
<1.本開示の一実施形態>
[1.1.システム構成例]
まず、図面を参照しながら本開示の一実施形態に係る情報処理システムの構成例について説明する。図1は、本開示の一実施形態に係る情報処理システムの構成例を示す説明図である。以下、図1を用いて本開示の一実施形態に係る情報処理システムの構成例について説明する。
図1に示したように、本開示の一実施形態に係る情報処理システム100aは、入力部110aと、出力部130aと、を含んで構成される。図1に示した本開示の一実施形態に係る情報処理システム100aは、テーブル140aの天面に情報を表示し、テーブル140aに表示した情報に対して情報処理システム100aを使用するユーザに操作をさせるシステムである。図1のようにテーブル140aの天面に情報を表示する方式を「プロジェクション型」とも称する。
入力部110aは、情報処理システム100aを使用するユーザの操作内容や、テーブル140aに置かれている物体の形状や模様などを入力する装置である。図1に示した例では、入力部110aは、テーブル140aの上方に、例えば天井から吊り下げられた状態で設けられる。すなわち、入力部110aは、情報が表示される対象となるテーブル140aとは離隔して設けられる。入力部110aとしては、例えば1つのレンズでテーブル140aを撮像するカメラや、2つのレンズでテーブル140aを撮像して奥行き方向の情報を記録することが可能なステレオカメラ、情報処理システム100aを使用するユーザが発する音声や情報処理システム100aが置かれている環境の環境音を収音するためのマイク等が用いられ得る。
入力部110aとして、1つのレンズでテーブル140aを撮像するカメラが用いられる場合、情報処理システム100aは、そのカメラが撮像した画像を解析することで、テーブル140aに置かれた物体を検出することが出来る。また入力部110aとしてステレオカメラが用いられる場合、そのステレオカメラには、例えば可視光カメラや赤外線カメラ等が用いられ得る。入力部110aとしてステレオカメラが用いられることで、入力部110aは、深度情報を取得することが可能となる。入力部110aが、深度情報を取得することで、情報処理システム100aは、例えばテーブル140aの上に置かれた手や物体の検出が可能になる。また入力部110aが、深度情報を取得することで、情報処理システム100aは、テーブル140aへのユーザの手の接触やテーブル140aからの手の離脱の検出が可能となる。
また入力部110aとしてマイクが用いられる場合、そのマイクは特定の方向の音声を収音するためのマイクアレイが用いられ得る。入力部110aとしてマイクアレイが用いられる場合、情報処理システム100aは、マイクアレイの収音方向を任意の方向に調整しても良い。
出力部130aは、入力部110aによって入力された、情報処理システム100aを使用するユーザの操作内容や、出力部130aが出力している情報の内容、テーブル140aに置かれている物体の形状や模様等の情報に応じて、テーブル140aに情報を表示したり、音声を出力したりする装置である。出力部130aとしては、例えばプロジェクタやスピーカ等が用いられる。図1に示した例では、出力部130aは、テーブル140aの上方に、例えば天井から吊り下げられた状態で設けられる。出力部130aがプロジェクタで構成される場合、出力部130aは、テーブル140aの天面に情報を投影する。出力部130aがスピーカで構成される場合、出力部130aは、音声信号に基づいて音声を出力する。出力部130aがスピーカで構成される場合、スピーカの数は1つで合っても良く、複数であっても良い。出力部130aが複数のスピーカで構成される場合、情報処理システム100aは、音声を出力するスピーカを限定したり、音声を出力する方向を調整したりしても良い。
また情報処理システム100aが図1に示したようなプロジェクション型である場合、出力部130aに、照明機器が含まれていても良い。出力部130aに照明機器が含まれる場合、情報処理システム100aは、入力部110aによって入力された情報の内容に基づいて、照明機器の点灯、消灯等の状態を制御しても良い。
情報処理システム100aを使用するユーザは、出力部130aがテーブル140aに表示する情報に対して、指などをテーブル140aに置いて操作することが出来る。また情報処理システム100aを使用するユーザは、テーブル140aに物体を置いて入力部110aに認識させることで、その認識させた物体に関する種々の操作を実行することが出来る。
なお図1には図示しないが、情報処理システム100aには他の装置が接続されていても良い。例えば情報処理システム100aには、テーブル140aを照らすための照明機器が接続されていても良い。
本開示では、情報処理システムの形態は図1に示したものに限定されるものではない。図2〜図4は、本開示の一実施形態にかかる情報処理システムのさらなる別の形態の例を示す説明図である。
図2に示したのは、本開示の一実施形態に係る情報処理システム100bの構成例を示す説明図であり、テーブル140bの下から情報を出力部130aに照射させることで、テーブル140bの表面に情報を表示させるように構成されているものである。すなわち、テーブル140bの面はガラス板や透明プラスチック板等の透明な材質で形成される。図2のようにテーブル140bの下から情報を出力部130aに照射させて、テーブル140bの天面に情報を表示する方式を「リアプロジェクション型」とも称する。図2に示した例では、テーブル140bの表面に入力部110bが設けられる構成を示しているが、図1に示した情報処理システム100aと同様に、入力部110bは、テーブル140bの下方にテーブル140bとは離隔して設けられても良い。
図3に示したのは、本開示の一実施形態に係る情報処理システム100cの構成例を示す説明図である。図3には、タッチパネル式のディスプレイがテーブル上に置かれている状態が示されている。このようにタッチパネル式のディスプレイの場合、入力部110c及び出力部130cは、タッチパネル式のディスプレイとして構成され得る。図3に示した情報処理システム100cでは、図1に示した情報処理システム100aと同様に、タッチパネル式のディスプレイの上方に、ユーザの位置を検出するためのカメラが設けられても良い。
図4に示したのは、本開示の一実施形態に係る情報処理システム100dの構成例を示す説明図である。図4には、フラットパネル式のディスプレイがテーブル上に置かれている状態が示されている。このようにフラットパネル式のディスプレイの場合、入力部110d及び出力部130dは、タッチパネル式のディスプレイとして構成され得る。
なお以下の説明では、図1に示したような、テーブル140aの上方に入力部110a及び出力部130aが設けられる情報処理システム100aの構成、すなわち、情報の表示面と離隔して入力部110a及び出力部130aが設けられる構成を例にして説明する。以下の説明では、情報処理システム100a、入力部110a、出力部130aを、単に情報処理システム100、入力部110、出力部130としても説明する。
[1.2.機能構成例]
続いて、本開示の一実施形態にかかる情報処理システムの機能構成例について説明する。図5は、本開示の一実施形態にかかる情報処理システムの機能構成例を示す説明図である。以下、図5を用いて本開示の一実施形態にかかる情報処理システムの機能構成例について説明する。
図5に示したように、本開示の一実施形態にかかる情報処理システム100は、入力部110と、制御部120と、出力部130と、を含んで構成される。
入力部110は、情報処理システム100を使用するユーザの操作内容や、出力部130が情報を出力する面(例えば図1に示したテーブル140a)に置かれている物体の形状や模様などを入力する。入力部110が入力した、操作内容や物体の形状、模様等の情報は制御部120に送られる。
入力部110は、情報処理システム100がプロジェクション型である場合、例えば1つのレンズで構成されるカメラ、2つのレンズで構成されるステレオカメラ、マイク等で構成され得る。
制御部120は、情報処理システム100の各部の制御を実行する。例えば制御部120は、入力部110が入力した情報を用いて、出力部130から出力する情報を生成する。図5に示したように、制御部120は、検出部121と、出力制御部122と、を含んで構成される。検出部121は、情報処理システム100を使用するユーザの操作内容や、出力部130が出力している情報の内容、出力部130が情報を出力する面(例えば図1に示したテーブル140a)に置かれている物体の形状や模様などを検出する処理を実行する。検出部121が検出した内容は出力制御部122に送られる。出力制御部122は、検出部121が検出した内容に基づいて、出力部130から出力する情報を生成する制御を実行する。出力制御部122が生成した情報は出力部130に送られる。
制御部120は、例えばCPU(Central Processing Unit;中央演算処理装置)などで構成されていてもよい。制御部120がCPU等の装置で構成される場合は、かかる装置は電子回路で構成され得る。
また図5には図示しないが、制御部120は、他の装置との間で無線通信を行なうための通信機能や、情報処理システム100に接続される他の装置、例えば照明機器の動作を制御する機能を有してもよい。
出力部130は、入力部110によって入力された、情報処理システム100を使用するユーザの操作内容や、出力部130が出力している情報の内容、また出力部130が情報を出力する面(例えば図1に示したテーブル140a)に置かれている物体の形状や模様等の情報に応じて情報を出力する。出力部130は、出力制御部122が生成する情報に基づいて情報を出力する。出力部130が出力する情報には、情報の表示面に表示される情報や、スピーカ(図示せず)等から出力される音声などが含まれる。
以上、図5を用いて本開示の一実施形態にかかる情報処理システム100の機能構成例について説明した。続いて、本開示の一実施形態にかかる情報処理システム100による情報の表示制御例について説明する。なお、以下では、図1に示したように、テーブル140aの天面に情報が表示される例を説明する。
また、以下では、ユーザの操作が、入力部110aによって撮像された画像から検出される場合を主に説明するが、ユーザの操作は、ユーザの指の接触または近接を検出するタッチパネルによって検出されてもよいし、スタイラスを検出する検出装置によって検出されてもよい。
[1.3.表示制御例]
以下においては、5つのコンテンツ(以下、5つのコンテンツそれぞれを「コンテンツC1〜C5」と称する。)が順次に再生される場合を例として説明する。しかし、再生対象のコンテンツの数は複数であれば特に限定されない。また、コンテンツの再生を行う装置は特に限定されない。例えば、コンテンツの再生は、情報処理システム100の内部(例えば、制御部120)においてなされてもよいし、情報処理システム100の外部(例えば、サーバ)においてなされてもよい。なお、本明細書においては、コンテンツがオーディオコンテンツの場合を主に想定するが、コンテンツの種類は特に限定されず、画像コンテンツ(例えば、静止画コンテンツ、動画コンテンツなど)であってもよい。
図6は、本開示の一実施形態にかかる情報処理システム100によって表示制御されるGUIの例を示す図である。図6に示したように、操作オブジェクトPが表示されている。出力制御部122は、一連の時間の流れを示す表示オブジェクトRsが表示されるように出力部130を制御する。表示オブジェクトRsは、コンテンツの再生位置を表すインジケータSiを含んでいる。また、表示オブジェクトRsは、コンテンツC1に対応する領域R1、コンテンツC2に対応する領域R2、コンテンツC3に対応する領域R3、コンテンツC4に対応する領域R4およびコンテンツC5に対応する領域R5を含んでいる。
コンテンツC1に対応する領域R1は、コンテンツC1の再生開始から再生終了までにおけるインジケータSiの移動範囲に対応して表示されるように出力制御部122によって出力部130が制御されてよい。同様に、コンテンツC2〜C5それぞれに対応する領域R2〜R5も、コンテンツC2〜C5それぞれの再生開始から再生終了までにおけるインジケータSiの移動範囲に対応して表示されるように出力制御部122によって出力部130が制御されてよい。
なお、図6に示した例では、コンテンツC3の再生開始から1分23秒経過した位置が現在の再生位置である。このとき、出力制御部122は、現在再生されているコンテンツC3の再生位置Tm1を「1分23秒」として表示させている。また、出力制御部122は、コンテンツC3に対応する領域R3のうちコンテンツC3の再生開始から現在の再生位置Tm1までに対応する領域を領域R31として表示させ、コンテンツC3に対応する領域R3のうち現在の再生位置Tm1からコンテンツC3の再生終了までに対応する領域を領域R32として表示させている。
また、出力制御部122は、インジケータSiを所定の図形Qに沿って移動させてよい。図6には、図形Qが円である場合が示されているが、図形Qは円以外であってもよい。例えば、図形Qは、多角形であってもよく、楕円であってもよい。また、出力制御部122は、所定の時間で図形Qを一周するように移動させる。本明細書においては、所定の時間が60分である場合を主に説明するが、所定の時間の長さは特に限定されない。
コンテンツの再生位置はユーザのポインティング操作に応じて変化されてよい。出力制御部122は、表示オブジェクトRsに対応する位置へのユーザのポインティング操作に応じて、コンテンツの再生位置を変化させることが可能であってよい。具体的には、出力制御部122は、領域R1〜R5の何れかの位置に対してユーザのポインティング操作がなされた場合、ポインティング位置に対応するコンテンツの位置を再生位置とすることが可能である。例えば、ポインティング位置にインジケータSiが移動されてよい。
なお、再生位置をコンテンツの先頭に合わせることが可能であってもよい。例えば、出力制御部122は、コンテンツC3が再生されているときにメニューMをタップする操作により表示される項目「前へ」の選択操作がなされた場合、再生位置をコンテンツC2の先頭に合わせてもよい。また、例えば、出力制御部122は、コンテンツC3が再生されているときにメニューMをタップする操作により表示される項目「次へ」の選択操作がなされた場合、再生位置をコンテンツC4の先頭に合わせてもよい。
また、出力制御部122は、ユーザの操作に基づいて図形Qのサイズを調整してよく、図形Qのサイズ調整に伴って領域R1〜R5のサイズを調整してよい。例えば、出力制御部122は、ユーザによるピンチアウト操作がなされた場合には、図形Qを拡大してよく、図形Qの拡大に伴って領域R1〜R5のサイズを拡大してよい。そうすれば、再生位置がより高精度に調整され得る。一方、例えば、出力制御部122は、ユーザによるピンチイン操作がなされた場合には、図形Qを縮小してよく、図形Qの縮小に伴って領域R1〜R5のサイズを縮小してよい。サイズ調整の操作は特に限定されない。
また、出力制御部122は、ユーザの操作に基づいて領域R1〜R5およびインジケータSiを回転させてよい。例えば、出力制御部122は、ユーザによって2点が回転するようにドラッグする操作がなされた場合には、その回転角度に基づいて領域R1〜R5およびインジケータSiを回転させてよい。
コンテンツが再生されている間、出力制御部122は、インジケータSiの可動範囲の内側に存在する所定の内側領域Inを回転させてよい。そうすれば、ユーザは、内側領域Inが回転していればコンテンツが再生されていることを容易に把握することが可能である。また、出力制御部122は、ユーザによって所定の停止操作がなされた場合、コンテンツの再生を停止させるとともに内側領域Inの回転を停止させてよい。
そうすれば、ユーザは、内側領域Inの停止を確認することによりコンテンツの再生が停止されていることを容易に確認することが可能である。所定の停止操作は特に限定されないが、内側領域Inをタップする操作であってもよいし、メニューMをタップする操作により表示される項目「停止」の選択操作であってもよい。
さらに、出力制御部122は、ユーザによって所定の再開操作がなされた場合、コンテンツの再生を再開させるとともに内側領域Inの回転を再開させてよい。所定の再開操作は特に限定されないが、内側領域Inをタップする操作であってもよいし、メニューMをタップする操作により表示される項目「再開」の選択操作であってもよい。
なお、内側領域Inに対するドラッグ操作によってコンテンツの再生速度は変更可能であってもよい。例えば、出力制御部122は、再生時間を先に進める方向に内側領域Inに対するドラッグ操作がなされた場合、ドラッグ操作の移動量に応じた速度によってコンテンツを再生させてよい。あるいは、出力制御部122は、再生時間を戻す方向に内側領域Inに対するドラッグ操作がなされた場合、ドラッグ操作の移動量に応じた速度によってコンテンツを逆再生してもよい。また、出力制御部122は、コンテンツの再生速度に応じて内側領域Inの回転を変化させてもよい。例えば、出力制御部122は、コンテンツ再生速度が2倍になった場合には、内側領域Inの回転速度も2倍にしてよい。また、例えば、出力制御部122は、逆再生の場合には、内側領域Inを逆回転させてもよい。なお、内側領域Inに表示されるべき内容のうち隠れてしまっている部分は、ユーザによるドラッグ操作によって表示されてよい。
再生中のコンテンツをユーザに直感的に把握させるため、出力制御部122は、再生中のコンテンツに対応する画像データが表示されるように出力部130を制御するとよい。図6に示した例では、出力制御部122は、再生中のコンテンツC3に対応する画像データG0が内側領域Inに表示されるように出力部130を制御している。しかし、再生中のコンテンツC3に対応する画像データG0が表示される領域は、内側領域Inに限定されず、インジケータSiの可動範囲の外側領域Ouであってもよい。
また、再生対象のコンテンツをユーザに直感的に把握させるため、出力制御部122は、再生対象のコンテンツである複数のコンテンツに対応する画像データ群の少なくとも一部が表示されるように出力部130を制御してよい。図6に示した例では、出力制御部122は、再生対象のコンテンツC1〜C5に対応する画像データG1〜G5を内側領域Inに表示させている。しかし、再生中のコンテンツC1〜C5に対応する画像データG1〜G5が表示される領域は、内側領域Inに限定されず、外側領域Ouであってもよい。
また、再生中のコンテンツに関する情報をユーザに提供するため、出力制御部122は、再生中のコンテンツに対応するテキストデータが表示されるように出力部130を制御してよい。図6に示した例では、出力制御部122は、再生中のコンテンツC3に対応するテキストデータTbを内側領域Inに表示させている。しかし、テキストデータTbが表示される領域は、内側領域Inに限定されず、外側領域Ouであってもよい。
なお、図6に示した例では、テキストデータTbは、再生中のコンテンツC3を含むコンテンツ群のタイトル、当該コンテンツ群のアーティスト名、再生中のコンテンツの名称などが含まれている。しかし、再生中のコンテンツC3に対応するテキストデータTbは、これらに限定されない。また、出力制御部122は、再生中のコンテンツC3に対応する画像データG0からテキストデータが抽出された場合、コンテンツC3に対応するメタデータとマッチするテキストデータを表示させるようにしてもよい。
また、コンテンツに対応する領域の色は特に限定されないが、出力制御部122によってコンテンツに対応する画像データから抽出された色情報に基づいて、コンテンツに対応する領域の色情報が決定されるとよい。そうすれば、ユーザは、コンテンツの再生位置を調整するに際して、画像データの色から受ける印象をより強くユーザに与えることができるようになるという効果を奏し得る。画像データから抽出される色情報は、画像データ全体から抽出される色情報であってもよいし、ある程度を超えたサイズで画像データに同一または類似の色を有して存在する領域から抽出される色情報であってもよい。
例えば、図6に示した例において、出力制御部122は、コンテンツC1に対応する画像データG1から抽出された色情報に、コンテンツC1に対応する領域R1の色情報を合わせてよい。同様に、出力制御部122は、コンテンツC2〜C5に対応する画像データG2〜G5から抽出された色情報に、コンテンツC2〜C5に対応する領域R2〜R5の色情報を合わせてよい。
また、テキストデータTbの色は特に限定されないが、出力制御部122によって画像データG0から抽出された文字列Taの色情報に基づいてテキストデータTbの色情報が決定されるとよい。そうすれば、ユーザに対して、画像データの文字から受ける印象をより強くユーザに与えることができる。図6に示した例では、文字列Taには、再生中のコンテンツC3を含むコンテンツ群のタイトル、当該コンテンツ群のアーティスト名などが含まれている。しかし、文字列Taはこれらに限定されない。
また、テキストデータTbの背景Bkの色は特に限定されないが、出力制御部122によって画像データG0から抽出された色情報に基づいてテキストデータTbの背景Bkの色情報が決定されるとよい。そうすれば、画像データG0の色から受ける印象をより強くユーザに与えることができるようになる。画像データG0から抽出される色情報は、画像データ全体から抽出される色情報であってもよいし、ある程度を超えたサイズで画像データに同一または類似の色を有して存在する領域から抽出される色情報であってもよい。
背景Bkの色とテキストデータTbの色とが類似している場合には、テキストデータTbの視認性を向上させるための処理がなされてもよい。より具体的には、出力制御部122は、背景Bkの色情報(例えば、RGB,CIE,Luv,Lab,HSV値など)とテキストデータTbの色情報との差分が所定の範囲内の場合に、テキストデータTbの色として、背景Bkの色と対になる色を選択してもよい。あるいは、出力制御部122は、当該差分が所定の範囲内の場合に、テキストデータTbの色として、候補色(例えば、白、黒など)のうち背景Bkの色から遠い色を選択してもよいし、あらかじめ決められた特定の色(白など)を選択してもよい。
その他、再生中のコンテンツに関する情報、これから再生されるコンテンツに関する情報は、既に再生されたコンテンツに関する情報と比較して、輝度が高く表示されてもよい。そうすれば、再生中のコンテンツやこれから再生されるコンテンツに対するユーザの興味をより強めることが可能となる。
例えば、出力制御部122は、既に再生されたコンテンツC1、C2に対応する領域R1、R2、コンテンツC3の再生開始から現在の再生位置Tm1までに対応する領域R31の輝度がより低くなるようにしてもよい。また、例えば、出力制御部122は、現在の再生位置Tm1からコンテンツC3の再生終了までに対応する領域R32、これから再生されるコンテンツC4、C5に対応する領域R4、R5の輝度がより高くなるようにしてもよい。
また、図6に示した例では、出力制御部122は、再生対象のコンテンツC1〜C5に対応する画像データG1〜G5を表示させている。このうち、例えば、出力制御部122は、既に再生されたコンテンツC1、C2に対応する画像データG1、G2の輝度がより低くなるようにしてもよい。また、例えば、出力制御部122は、再生中のコンテンツC3に対応する画像データG3、これから再生されるコンテンツC4、C5に対応する画像データG4、G5の輝度がより高くなるようにしてもよい。なお、図6に示した例では、画像データG3は画像データG0と同じであるが、異なっていてもよい。
出力制御部122によって使用される各種のデータ(例えば、画像データ、テキストデータなど)の蓄積場所は限定されない。例えば、出力制御部122によって使用される各種のデータは、情報処理システム100の内部に蓄積されていてもよい。その場合、出力制御部122は、情報処理システム100の内部に蓄積されている各種のデータを取得して使用すればよい。また、出力制御部122によって使用される各種のデータは、情報処理システム100の外部(例えば、サーバ)に蓄積されていてもよい。その場合、出力制御部122は、情報処理システム100の外部に蓄積されている各種のデータを取得して使用すればよい。
ユーザは、再生対象のコンテンツを増減させることが可能であってよい。例えば、再生対象のコンテンツとして未登録のコンテンツに対応するオブジェクトが外側領域Ouに表示されている場合を想定する。かかる場合に、出力制御部122は、内側領域Inへのオブジェクトの移動が検出されると、そのオブジェクトに対応するコンテンツを再生対象のコンテンツに追加してよい。
未登録のコンテンツに対応するオブジェクトはもともと外側領域Ouに表示されていてもよいし、検出部121によって撮像画像からユーザ端末が認識された場合、当該ユーザ端末に記憶されているコンテンツに対応するオブジェクトが表示されてもよい。また、検出部121によって撮像画像からコンテンツが記録された記憶媒体のパッケージ(例えば、CDのジャケットなど)が認識された場合、当該コンテンツに対応するオブジェクトが表示されてもよい。
また、表示されるオブジェクトの形状や色は特に限定されない。例えば、表示されるオブジェクトは、ファイルのアイコンであってもよいし、コンテンツ群のプレイリストであってもよい。再生対象のコンテンツのどこに追加されるかは限定されないが、再生対象のコンテンツの末尾に追加されてよい。一方、例えば、出力制御部122は、画像データG1〜G5の何れかの外側領域Ouへの移動が検出されると、その画像データに対応するコンテンツを再生対象のコンテンツから削除してよい。
コンテンツ再生結果として出力される音声の音量調整は、メニューMをタップする操作により表示される項目「音量調整」の選択操作によって可能であってよい。また、コンテンツ再生結果として出力される音声の音量調整は、グローバルメニューなどに対する操作によって可能であってよい。その場合には、他のアプリケーションから出力される音声の音量も同時に調整されてよい。
また、表示オブジェクトRsの表示(例えば、サイズ、位置)に応じて、音声制御がなされてもよい。例えば、出力制御部122は、表示オブジェクトRsのサイズに応じて音量を制御してもよい。具体的には、例えば、出力制御部122は、表示オブジェクトRsが大きいほど音量を大きくしてもよいし、表示オブジェクトRsが閾値より大きい場合に表示オブジェクトRsが閾値より小さい場合よりも、音量を大きくしてもよい。
また、例えば、出力制御部122は、表示オブジェクトRsのサイズに応じて音質を制御してもよい。具体的には、出力制御部122は、表示オブジェクトRsのサイズに応じてイコライザ設定を制御してもよい。より具体的には、出力制御部122は、表示オブジェクトRsのサイズが閾値より大きい場合には、イコライザ設定を低音強調にし、閾値より小さい場合には、イコライザ設定を低音強調にしなくてよい。また、例えば、出力制御部122は、表示オブジェクトRsのサイズが閾値より大きい場合には、ウーファーをONにし、閾値より小さい場合には、ウーファーをOFFにしてもよい。
また、出力制御部122は、表示オブジェクトRsのサイズに応じて音の指向性を制御してもよい。具体的には、出力制御部122は、表示オブジェクトRsが所定のサイズより大きい場合には、すべてのスピーカから室内空間全域に音を出力させ、表示オブジェクトRsが所定のサイズより小さい場合には、指向性スピーカから所定の方向(例えば、表示面上で表示オブジェクトRsが表示される方向)に音を出力させてもよい。また、出力制御部122は、表示オブジェクトRsの位置に応じて音の指向性を制御してもよいし、表示オブジェクトRsの向きに応じて音の指向性を制御してもよい。
ここで、ユーザが再生対象のコンテンツを増加させると、再生対象のコンテンツの再生時間の合計が所定の時間を超えるという状況が起こり得る。かかる状況においては、表示オブジェクトRsに含まれる複数の領域が図形Qの一周分を超えてしまう可能性がある。そこで、出力制御部122は、再生対象のコンテンツの再生時間の合計が所定の時間を超える場合、表示オブジェクトRsの表示を変化させるとよい。表示オブジェクトRsの表示を変化は、追加オブジェクトの表示であってもよいし、既に表示されている表示オブジェクトRsの形状、色などの変化であってもよい。出力制御部122は、再生対象のコンテンツの再生時間の合計が所定の時間を超える場合、表示オブジェクトRsに含まれる複数の領域を調整するためのオブジェクトが追加オブジェクトの一例として表示されるように出力部130を制御してよい。
図7は、本開示の一実施形態にかかる情報処理システム100によって表示制御されるGUIの例を示す図である。図7に示すように、再生対象のコンテンツにコンテンツC6〜C12が追加されると、出力制御部122によってコンテンツC6〜C12に対応する領域R6〜R12が追加される。このとき、再生対象のコンテンツC1〜C12の再生時間の合計が所定の時間に達してしまっている。かかる状況において再生対象のコンテンツにコンテンツC13が追加された場合、再生対象のコンテンツの再生時間の合計が所定の時間を超えてしまう。このような場合、出力制御部122は、表示オブジェクトRsに含まれる複数の領域を調整するためのオブジェクトJを表示させてよい。
例えば、出力制御部122は、オブジェクトJをコンテンツC1に対応する領域R1の先頭位置に表示させてもよい。図7に示したように、出力制御部122は、再生時間を先に進める方向にオブジェクトJを移動させる操作が検出された場合、最初に再生されるコンテンツC1に対応する領域R1の代わりにそれまで表示されていなかった領域R13を表示させることが可能となる。一方、図7に示した状況において、出力制御部122は、再生時間を戻す方向にオブジェクトJを移動させる操作が検出された場合、コンテンツC3に対応する領域R13の代わりに領域R1を表示させることが可能となる。オブジェクトJを移動させる操作はドラッグ操作であってよい。
内側領域Inの表示はユーザの操作によって切り替えることが可能であってもよい。すなわち、出力制御部122は、ユーザによって所定の切り替え操作がなされた場合、内側領域Inの表示を切り替えてよい。切り替え操作は特に限定されないが、内側領域Inを2回タップする操作であってもよいし、内側領域Inを長押しする操作であってもよいし、メニューMをタップする操作により表示される項目「切り替え」の選択操作であってもよい。
内側領域Inの表示が切り替えられるときには、所定のアニメーションが表示されてもよい。例えば、アニメーションは、表示オブジェクトRsおよび内側領域Inが裏返しになるようなアニメーションであってもよい。切り替え後の内側領域Inの表示は特に限定されない。図8を参照しながら、切り替え後の内側領域Inの表示の例を説明する。図8は、本開示の一実施形態にかかる情報処理システム100によって表示制御されるGUIの例を示す図である。
図8に示したように、出力制御部122は、切り替え後の内側領域Inに再生中のコンテンツC3に関連する情報Deを表示させてもよい。図8に示した例では、再生中のコンテンツC3に関連する情報Deに、コンテンツ群のタイトル、当該コンテンツ群のアーティスト名、当該コンテンツ群の制作者、当該コンテンツ群の発表年、当該制作会社のホームページのURL、当該コンテンツ群に含まれるコンテンツC1〜C8それぞれの名称、再生中のコンテンツC3に対応する画像データG0などが含まれている。しかし、再生中のコンテンツC3に関連する情報Deは特に限定されない。再生中のコンテンツC3に関連する情報Deは、おすすめ情報(例えば、同じ制作者が制作した別コンテンツ群、同じコンテンツ群をよく利用するユーザのお気に入りコンテンツ群など)、制作者に関連する情報などを含んでもよい。
なお、図8に示した例では、出力制御部122は、再生中のコンテンツC3に対応する領域R3のうちコンテンツC3の再生開始から現在の再生位置Tm1までに対応する領域を領域R31aとして表示させ、コンテンツC3に対応する領域R3のうち現在の再生位置Tm1からコンテンツC3の再生終了までに対応する領域を領域R32aとして表示させている。なお、図8に示したように、再生中のコンテンツC3以外のコンテンツの領域は表示されなくてもよい。
以上、内側領域Inの表示がユーザの操作によって切り替えられる例について説明した。インジケータSiの位置は、実時刻とは無関係であってもよいが、出力制御部122によって実時刻に基づいて制御されてもよい。実時刻に基づいてインジケータSiの位置が制御されれば、ユーザに実時刻を把握させることも可能となる。実時刻とは無関係のモードと実時刻に基づくモードとは、ユーザ操作により切り替え可能であってもよい。実時刻は情報処理システム100の内部に組み込まれた時計から取得されてもよいし、情報処理システム100の外部(例えば、サーバ)に組み込まれた時計から取得されてもよい。
具体的な例について図9を参照しながら説明する。図9は、本開示の一実施形態にかかる情報処理システム100によって表示制御されるGUIの例を示す図である。出力制御部122は、実時刻と図形Qとの対応関係に従って実時刻情報を表示させてよい。例えば、出力制御部122は、図9に示すように、図形Qに沿って「6時」を示す実時刻情報Ck6、「9時」を示す実時刻情報Ck9、「12時」を示す実時刻情報Ck12を表示させてよい。なお、表示される実時刻情報の間隔は、かかる例のように3時間間隔に限らず、1時間間隔であってもよいし、他の時間間隔であってもよい。
インジケータSiは、実時刻に対応する図形Qにおける位置に配置されるように出力制御部122によって制御されてよい。例えば、図9に示すように、実時刻が「午前8時15分」である場合、インジケータSiは、「午前8時15分」に対応する図形Qにおける位置に配置されるように出力制御部122によって制御されてよい。また、実時刻「午前8時15分」を示す時刻情報は、実時刻情報Tm2として表示されるように出力制御部122によって制御されてよい。
なお、上記したように、コンテンツの再生位置はユーザのポインティング操作に応じて変化されてよい。ただし、上記では、ポインティング位置にインジケータSiが移動する例を示したが、インジケータSiの位置が実時刻に基づいて制御される場合には、表示されている実時刻情報を移動させないほうがよいと考えられる。そのため、出力制御部122は、インジケータSiの位置を実時刻に基づいて制御する場合には、複数の領域R1〜R5においてポインティングされた位置がインジケータSiの位置に合うように複数の領域R1〜R5を移動させるとよい。
以上、インジケータSiの位置が実時刻に基づいて制御される例について説明した。以上においては、操作オブジェクトが1つである場合を主に説明したが、ユーザによって所定の複数表示操作がなされた場合に、2つの操作オブジェクトが生成されてよい。具体的な例について図10を参照しながら説明する。図10は、本開示の一実施形態にかかる情報処理システム100によって表示制御されるGUIの例を示す図である。
図10に示したように、出力制御部122は、ユーザによって所定の複数表示操作がなされた場合に、操作オブジェクトP1と操作オブジェクトP2とを生成してもよい。複数表示操作は特に限定されないが、内側領域Inを2点で長押ししてから2点が離れるようにドラッグする操作であってもよいし、メニューMをタップする操作により表示される項目「複数表示」の選択操作であってもよい。
例えば、出力制御部122は、ユーザによって複数表示操作がなされた場合、第1のコンテンツの再生位置を調整するための第1のインジケータと第2のコンテンツの再生位置を調整するための第2のインジケータとが表示されるように出力部130を制御してよい。より具体的には、図10に示すように、出力制御部122は、コンテンツC3が再生されている間にユーザによって複数表示操作がなされた場合、コンテンツC3の再生位置を調整するためのインジケータSiとコンテンツN1の再生位置を調整するためのインジケータSiとを表示させてよい。
コンテンツC3とコンテンツN1とは、それぞれのインジケータSiの位置に基づいて並行して再生されてよい。そして、コンテンツC3とコンテンツN1とが再生された結果として得られるそれぞれの音声も並行して出力されてよい。このとき、図10に示すように、出力制御部122は、コンテンツC3およびコンテンツN1それぞれの出力音量の比率を調整するためのインジケータSdを表示させてよい。
なお、図10に示した例では、出力制御部122は、再生中のコンテンツN1に対応する領域のうちコンテンツN1の再生開始から現在の再生位置Tm1までに対応する領域を領域R11aとして表示させ、コンテンツN1に対応する領域のうち現在の再生位置Tm1からコンテンツN1の再生終了までに対応する領域を領域R12aとして表示させている。
インジケータSdのシークバーR0の位置は特に限定されないが、図10に示したように、操作オブジェクトP1および操作オブジェクトP2に対応する位置(例えば、操作オブジェクトP1および操作オブジェクトP2それぞれから等距離の位置など)であるとよい。シークバーR0の色も特に限定されないが、例えば、操作オブジェクトP1に近い端部の色は、再生中のコンテンツC3から抽出された色情報に基づいて決定されてよい。また、操作オブジェクトP2に近い端部の色は、再生中のコンテンツN1から抽出された色情報に基づいて決定されてよい。両端部の間の領域の色は、徐々に変化してもよい。
[1.4.ハードウェア構成例]
次に、図11を参照して、本開示の一実施形態にかかる情報処理システム100のハードウェア構成について説明する。図11は、本開示の実施形態にかかる情報処理システム100のハードウェア構成例を示すブロック図である。
図11に示すように、情報処理システム100は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理システム100は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理システム100は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理システム100は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理システム100内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理システム100の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理システム100に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能しうる。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro−Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理システム100の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理システム100の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理システム100に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理システム100に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理システム100と外部接続機器929との間で各種のデータが交換されうる。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理システム100の筐体の姿勢など、情報処理システム100自体の状態に関する情報や、情報処理システム100の周辺の明るさや騒音など、情報処理システム100の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
以上、情報処理システム100のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
<5.むすび>
以上説明したように、本開示の実施形態によれば、一連の時間の流れを示す表示オブジェクトRsが表示されるように出力部130を制御する出力制御部122を備え、表示オブジェクトRsは、コンテンツの再生位置を表し、複数の該コンテンツのそれぞれに対応する複数の領域を含む、情報処理システム100が提供される。かかる構成によれば、複数のコンテンツと現在再生されているコンテンツとの関係がユーザによってより直感的に把握され得る。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した情報処理システム100が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
また、出力制御部122は、出力部130に表示内容を表示させるための表示制御情報を生成し、生成した表示制御情報を出力部130に出力することで、当該表示内容が出力部130に表示されるように出力部130を制御することが可能である。かかる表示制御情報の内容はシステム構成にあわせて適宜変更されてよい。
具体的な一例として、情報処理システム100を実現するためのプログラムは、ウェブアプリケーションであってもよい。かかる場合、表示制御情報は、HTML(HyperText Markup Language)、SGML(Standard Generalized Markup Language)、XML(Extensible Markup Language)などのマークアップ言語により実現されてもよい。
なお、上述した情報処理システム100の動作が実現されれば、図5に示した各構成の位置は特に限定されない。具体的な一例として、入力部110と出力部130と制御部120とは、ネットワークを介して接続された互いに異なる装置に設けられてもよい。この場合には、制御部120が設けられた情報処理装置が、例えば、ウェブサーバやクラウドサーバのようなサーバに相当し、入力部110および出力部130が当該サーバにネットワークを介して接続されたクライアントに相当し得る。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
一連の時間の流れを示す表示オブジェクトが表示されるように表示出力部を制御する出力制御部を備え、
前記表示オブジェクトは、コンテンツの再生位置を表し、複数の該コンテンツのそれぞれに対応する複数の領域を含む、
情報処理システム。
(2)
前記出力制御部は、前記オブジェクトに対応する位置へのユーザのポインティング操作に応じて、前記コンテンツの再生位置を変化させる、
前記(1)に記載の情報処理システム。
(3)
前記オブジェクトは前記コンテンツの再生位置を示すインジケータを含み、
該インジケータは所定の図形に沿って移動し、所定の時間で前記図形を一周するように移動する、
前記(2)に記載の情報処理システム。
(4)
前記所定の時間は、60分である、
前記(3)に記載の情報処理システム。
(5)
前記所定の図形は、多角形、楕円または円である、
前記(3)または(4)に記載の情報処理システム。
(6)
前記出力制御部は、コンテンツの再生開始から再生終了までにおける前記インジケータの移動範囲に対応して当該コンテンツに対応する領域が表示されるように前記出力部を制御する、
前記(3)に記載の情報処理システム。
(7)
前記出力制御部は、実時刻に基づいて前記インジケータの位置を制御する、
前記(3)に記載の情報処理システム。
(8)
前記出力制御部は、前記コンテンツに対応する画像データから抽出された色情報に基づいて、前記コンテンツに対応する前記領域の色情報を決定する、
前記(1)に記載の情報処理システム。
(9)
前記出力制御部は、ユーザの操作に基づいて前記複数の領域のサイズを調整する、
前記(1)〜(8)の何れか一項に記載の情報処理システム。
(10)
前記出力制御部は、ユーザによって所定の切り替え操作がなされた場合、前記インジケータの可動範囲の内側に存在する所定の内側領域の表示を切り替える、
前記(3)に記載の情報処理システム。
(11)
前記出力制御部は、コンテンツが再生されている間、前記インジケータの可動範囲の内側に存在する所定の内側領域を回転させる、
前記(3)に記載の情報処理システム。
(12)
前記出力制御部は、ユーザによって所定の停止操作がなされた場合、前記コンテンツの再生を停止させるとともに前記所定の内側領域の回転を停止させる、
前記(10)に記載の情報処理システム。
(13)
前記出力制御部は、前記インジケータの可動範囲の内側に存在する所定の内側領域へのオブジェクトを移動させる操作に応じて、前記オブジェクトに対応するコンテンツを再生対象のコンテンツに追加する、
前記(1)〜(12)の何れか一項に記載の情報処理システム。
(14)
前記出力制御部は、再生対象のコンテンツの再生時間の合計が所定の時間を超える場合、前記表示オブジェクトの表示を変化させる、
前記(1)〜(13)の何れか一項に記載の情報処理システム。
(15)
前記出力制御部は、前記表示オブジェクトの表示の変化として、前記表示オブジェクトに含まれる前記複数の領域を調整するためのオブジェクトが表示されるように前記出力部を制御する
前記(14)に記載の情報処理システム。
(16)
前記出力制御部は、ユーザによって所定の複数表示操作がなされた場合、第1のコンテンツの再生位置を調整するための第1のインジケータと第2のコンテンツの再生位置を調整するための第2のインジケータとが表示されるように前記出力部を制御する、
前記(1)〜(15)の何れか一項に記載の情報処理システム。
(17)
前記出力制御部は、前記複数のコンテンツに対応する画像データ群の少なくとも一部が前記インジケータの可動範囲の内側に存在する所定の内側領域に表示されるように前記出力部を制御する、
前記(3)に記載の情報処理システム。
(18)
前記出力制御部は、再生中のコンテンツに対応する画像データが表示されるように前記出力部を制御し、再生中のコンテンツに対応するテキストデータが表示されるように前記出力部を制御する、
前記(1)〜(17)の何れか一項に記載の情報処理システム。
(19)
前記出力制御部は、前記画像データから抽出された文字列の色情報に基づいて前記テキストデータの色情報を決定し、前記画像データから抽出された色情報に基づいて前記テキストデータの背景の色情報を決定する、
前記(18)に記載の情報処理システム。
(20)
一連の時間の流れを示す表示オブジェクトが表示されるように表示出力部を制御することを含み、
前記表示オブジェクトは、コンテンツの再生位置を表し、複数の該コンテンツのそれぞれに対応する複数の領域を含む、
情報処理方法。
(21)
コンピュータを、
一連の時間の流れを示す表示オブジェクトが表示されるように表示出力部を制御する出力制御部を備え、
前記表示オブジェクトは、コンテンツの再生位置を表し、複数の該コンテンツのそれぞれに対応する複数の領域を含む、
情報処理システムとして機能させるためのプログラム。
100(100a〜100d) 情報処理システム
110(110a〜110d) 入力部
120 制御部
121 検出部
122 出力制御部
130(130a〜130d) 出力部
140(140a、140b) テーブル
Bk 背景
C1〜C13 コンテンツ
Ck(Ck6、Ck9、Ck12) 実時刻情報
De コンテンツに関連する情報
G0〜G5 画像データ
In 内側領域
J オブジェクト
M メニュー
N1 コンテンツ
Ou 外側領域
P(P1、P2) 操作オブジェクト
Q 図形
R0 シークバー
R1〜R13 領域
R11a 領域
R12a 領域
R31、R31a、R32、R32a 領域
Rs 表示オブジェクト
Sd インジケータ
Si インジケータ
Ta 文字列
Tb テキストデータ
Tm1 再生位置
Tm2 実時刻情報
本開示は、プログラムおよび情報処理装置に関する。
本開示によれば、コンピュータを、一連の時間の流れを示す表示オブジェクトが表示されるように表示出力部を制御する出力制御部を備え、前記表示オブジェクトは、実行中のコンテンツに対応する領域と非実行中のコンテンツに対応する領域とを含み、色情報によって互いに区別されて表示される複数の領域と、前記実行中のコンテンツを示し、円形状の図形に沿って移動し、所定の時間で前記図形を一周するように移動するインジケータと、を含み、前記図形の内側領域に、前記実行中のコンテンツに関連する表示を行う、情報処理システムとして機能させるためのプログラムが提供される。
本開示によれば、表示部と、一連の時間の流れを示す表示オブジェクトが前記表示部に表示されるように制御する出力制御部と、を備え、前記表示オブジェクトは、実行中のコンテンツに対応する領域と非実行中のコンテンツに対応する領域とを含み、色情報によって互いに区別されて表示される複数の領域と、前記実行中のコンテンツを示し、円形状の図形に沿って移動し、所定の時間で前記図形を一周するように移動するインジケータと、を含む、情報処理装置が提供される。
以上説明したように本開示によれば、複数のコンテンツと現在実行されているコンテンツとの関係がユーザによってより直感的に把握され得る。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。

Claims (20)

  1. 一連の時間の流れを示す表示オブジェクトが表示されるように表示出力部を制御する出力制御部を備え、
    前記表示オブジェクトは、コンテンツの再生位置を示すインジケータと、複数の該コンテンツのそれぞれに対応する複数の領域と、を含み、
    前記インジケータは、所定の図形に沿って移動し、所定の時間で前記図形を一周するように移動する、
    情報処理システム。
  2. 前記出力制御部は、前記表示オブジェクトに対応する位置へのユーザのポインティング操作に応じて、前記コンテンツの再生位置を変化させる、
    請求項1に記載の情報処理システム。
  3. 前記所定の時間は、60分である、
    請求項1または2に記載の情報処理システム。
  4. 前記所定の図形は、多角形、楕円または円である、
    請求項1〜3の何れか一項に記載の情報処理システム。
  5. 前記出力制御部は、コンテンツの再生開始から再生終了までにおける前記インジケータの移動範囲に対応して当該コンテンツに対応する前記領域が表示されるように前記表示出力部を制御する、
    請求項1〜4の何れか一項に記載の情報処理システム。
  6. 前記出力制御部は、実時刻に基づいて前記インジケータの位置を制御する、
    請求項1〜5の何れか一項に記載の情報処理システム。
  7. 前記出力制御部は、前記コンテンツに対応する画像データから抽出された色情報に基づいて、前記コンテンツに対応する前記領域の色情報を決定する、
    請求項1〜6の何れか一項に記載の情報処理システム。
  8. 前記出力制御部は、ユーザの操作に基づいて前記複数の領域のサイズを調整する、
    請求項1〜7の何れか一項に記載の情報処理システム。
  9. 前記出力制御部は、ユーザによって所定の切り替え操作がなされた場合、前記インジケータの可動範囲の内側に存在する所定の内側領域の表示を切り替える、
    請求項1〜8の何れか一項に記載の情報処理システム。
  10. 前記出力制御部は、コンテンツが再生されている間、前記インジケータの可動範囲の内側に存在する所定の内側領域を回転させる、
    請求項1〜9の何れか一項に記載の情報処理システム。
  11. 前記出力制御部は、ユーザによって所定の停止操作がなされた場合、前記コンテンツの再生を停止させるとともに前記所定の内側領域の回転を停止させる、
    請求項10に記載の情報処理システム。
  12. 前記出力制御部は、前記インジケータの可動範囲の内側に存在する所定の内側領域へのオブジェクトを移動させる操作に応じて、前記オブジェクトに対応するコンテンツを再生対象のコンテンツに追加する、
    請求項1〜11の何れか一項に記載の情報処理システム。
  13. 前記出力制御部は、再生対象のコンテンツの再生時間の合計が前記所定の時間を超える場合、前記表示オブジェクトの表示を変化させる、
    請求項1〜12の何れか一項に記載の情報処理システム。
  14. 前記出力制御部は、前記表示オブジェクトの表示の変化として、前記表示オブジェクトに含まれる前記複数の領域を調整するためのオブジェクトが表示されるように前記表示出力部を制御する
    請求項13に記載の情報処理システム。
  15. 前記出力制御部は、ユーザによって所定の複数表示操作がなされた場合、第1のコンテンツの再生位置を調整するための第1のインジケータと第2のコンテンツの再生位置を調整するための第2のインジケータとが表示されるように前記表示出力部を制御する、
    請求項1〜14の何れか一項に記載の情報処理システム。
  16. 前記出力制御部は、前記複数のコンテンツに対応する画像データ群の少なくとも一部が、前記インジケータの可動範囲の内側に存在する所定の内側領域に表示されるように前記表示出力部を制御する、
    請求項1〜15の何れか一項に記載の情報処理システム。
  17. 前記出力制御部は、再生中のコンテンツに対応する画像データが表示されるように前記表示出力部を制御し、再生中のコンテンツに対応するテキストデータが表示されるように前記表示出力部を制御する、
    請求項1〜16の何れか一項に記載の情報処理システム。
  18. 前記出力制御部は、前記画像データから抽出された文字列の色情報に基づいて前記テキストデータの色情報を決定し、前記画像データから抽出された色情報に基づいて前記テキストデータの背景の色情報を決定する、
    請求項17に記載の情報処理システム。
  19. 一連の時間の流れを示す表示オブジェクトが表示されるように表示出力部を制御することを含み、
    前記表示オブジェクトは、コンテンツの再生位置を示すインジケータと、複数の該コンテンツのそれぞれに対応する複数の領域と、を含み、
    前記インジケータは、所定の図形に沿って移動し、所定の時間で前記図形を一周するように移動する、
    情報処理方法。
  20. コンピュータを、
    一連の時間の流れを示す表示オブジェクトが表示されるように表示出力部を制御する出力制御部を備え、
    前記表示オブジェクトは、コンテンツの再生位置を示すインジケータと、複数の該コンテンツのそれぞれに対応する複数の領域と、を含み、
    前記インジケータは、所定の図形に沿って移動し、所定の時間で前記図形を一周するように移動する、
    情報処理システムとして機能させるためのプログラム。
JP2018186787A 2013-12-27 2018-10-01 プログラムおよび情報処理装置 Pending JP2019023902A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013273232 2013-12-27
JP2013273232 2013-12-27

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015554658A Division JP6414079B2 (ja) 2013-12-27 2014-11-10 情報処理システム、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2019023902A true JP2019023902A (ja) 2019-02-14

Family

ID=53478198

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015554658A Active JP6414079B2 (ja) 2013-12-27 2014-11-10 情報処理システム、情報処理方法およびプログラム
JP2018186787A Pending JP2019023902A (ja) 2013-12-27 2018-10-01 プログラムおよび情報処理装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015554658A Active JP6414079B2 (ja) 2013-12-27 2014-11-10 情報処理システム、情報処理方法およびプログラム

Country Status (4)

Country Link
US (1) US10983656B2 (ja)
EP (1) EP3089014B1 (ja)
JP (2) JP6414079B2 (ja)
WO (1) WO2015098320A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10737140B2 (en) * 2016-09-01 2020-08-11 Catalyft Labs, Inc. Multi-functional weight rack and exercise monitoring system for tracking exercise movements
CN114860148B (zh) * 2022-04-19 2024-01-16 北京字跳网络技术有限公司 一种交互方法、装置、计算机设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198759A (ja) * 2002-12-19 2004-07-15 Sony Computer Entertainment Inc 楽音再生装置及び楽音再生プログラム
JP2006302345A (ja) * 2005-04-15 2006-11-02 Sony Corp データ処理装置、データ再生装置、データ処理方法及びプログラム
JP2007206809A (ja) * 2006-01-31 2007-08-16 Universal Scientific Industrial Co Ltd リング・マルチメディア再生進度インジケータ及びその信号指示方法
US20070239788A1 (en) * 2006-04-10 2007-10-11 Yahoo! Inc. Topic specific generation and editing of media assets
JP2008532182A (ja) * 2005-03-02 2008-08-14 ガイドワークス, エルエルシー 双方向メディアガイダンスアプリケーションシステムにおけるプレイリストおよびブックマーク
JP2008243259A (ja) * 2007-03-26 2008-10-09 Pioneer Electronic Corp 情報再生装置及びコンピュータプログラム
CN101719375A (zh) * 2010-01-12 2010-06-02 深圳市同洲电子股份有限公司 一种定位音乐播放位置的方法及音乐播放器
US7844901B1 (en) * 2007-03-20 2010-11-30 Adobe Systems Incorporated Circular timeline for video trimming
JP2012145984A (ja) * 2011-01-06 2012-08-02 Nintendo Co Ltd 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム
WO2013030862A1 (ja) * 2011-08-26 2013-03-07 パイオニア株式会社 表示装置、表示方法、およびプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6081266A (en) * 1997-04-21 2000-06-27 Sony Corporation Interactive control of audio outputs on a display screen
US20060129933A1 (en) * 2000-12-19 2006-06-15 Sparkpoint Software, Inc. System and method for multimedia authoring and playback
US7480869B2 (en) * 2003-10-31 2009-01-20 International Business Machines Corporation Method and apparatus for displaying status of hierarchical operations
US20060184871A1 (en) * 2005-02-11 2006-08-17 Molino Networks, Inc. User friendly interface for installing and playing content
US7313755B2 (en) * 2005-04-20 2007-12-25 Microsoft Corporation Media timeline sorting
US7844301B2 (en) * 2005-10-14 2010-11-30 Lg Electronics Inc. Method for displaying multimedia contents and mobile communications terminal capable of implementing the same
TW200723081A (en) * 2005-12-13 2007-06-16 Universal Scient Ind Co Ltd Circular multimedia playback progress indicator and method of indicating signals thereof
JP4971768B2 (ja) * 2006-12-07 2012-07-11 キヤノン株式会社 編集装置、編集方法、およびプログラム
US20110116769A1 (en) * 2007-08-03 2011-05-19 Loilo Inc Interface system for editing video data
US8395660B2 (en) * 2007-12-13 2013-03-12 Apple Inc. Three-dimensional movie browser or editor
JP2010165337A (ja) 2008-12-15 2010-07-29 Sony Corp 情報処理装置、情報処理方法およびプログラム
US8984431B2 (en) 2009-03-16 2015-03-17 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US9189818B2 (en) * 2010-12-10 2015-11-17 Quib, Inc. Association of comments with screen locations during media content playback
US9997196B2 (en) * 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
WO2014039650A1 (en) * 2012-09-07 2014-03-13 Barstow Llc Digital content presentation and interaction
JP5548249B2 (ja) * 2012-10-17 2014-07-16 株式会社ソニー・コンピュータエンタテインメント メニュー画面表示装置および方法
US20140310598A1 (en) * 2013-01-10 2014-10-16 Okappi, Inc. Multimedia Spiral Timeline
WO2014127535A1 (en) * 2013-02-22 2014-08-28 Google Inc. Systems and methods for automated content generation
EP2804089A1 (en) * 2013-05-14 2014-11-19 Sstatzz Oy System and method for presenting video and information

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198759A (ja) * 2002-12-19 2004-07-15 Sony Computer Entertainment Inc 楽音再生装置及び楽音再生プログラム
JP2008532182A (ja) * 2005-03-02 2008-08-14 ガイドワークス, エルエルシー 双方向メディアガイダンスアプリケーションシステムにおけるプレイリストおよびブックマーク
JP2006302345A (ja) * 2005-04-15 2006-11-02 Sony Corp データ処理装置、データ再生装置、データ処理方法及びプログラム
JP2007206809A (ja) * 2006-01-31 2007-08-16 Universal Scientific Industrial Co Ltd リング・マルチメディア再生進度インジケータ及びその信号指示方法
US20070239788A1 (en) * 2006-04-10 2007-10-11 Yahoo! Inc. Topic specific generation and editing of media assets
US7844901B1 (en) * 2007-03-20 2010-11-30 Adobe Systems Incorporated Circular timeline for video trimming
JP2008243259A (ja) * 2007-03-26 2008-10-09 Pioneer Electronic Corp 情報再生装置及びコンピュータプログラム
CN101719375A (zh) * 2010-01-12 2010-06-02 深圳市同洲电子股份有限公司 一种定位音乐播放位置的方法及音乐播放器
JP2012145984A (ja) * 2011-01-06 2012-08-02 Nintendo Co Ltd 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム
WO2013030862A1 (ja) * 2011-08-26 2013-03-07 パイオニア株式会社 表示装置、表示方法、およびプログラム

Also Published As

Publication number Publication date
EP3089014B1 (en) 2021-09-15
EP3089014A4 (en) 2017-08-16
JP6414079B2 (ja) 2018-10-31
EP3089014A1 (en) 2016-11-02
US10983656B2 (en) 2021-04-20
US20160328093A1 (en) 2016-11-10
WO2015098320A1 (ja) 2015-07-02
JPWO2015098320A1 (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6044079B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9798464B2 (en) Computing device
US8933960B2 (en) Image alteration techniques
US9632683B2 (en) Methods, apparatuses and computer program products for manipulating characteristics of audio objects by using directional gestures
WO2016124095A1 (zh) 生成视频的方法、装置及终端
US20170243611A1 (en) Method and system for video editing
JP6149862B2 (ja) 表示制御装置、表示制御システムおよび表示制御方法
WO2017030193A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2015072194A1 (ja) 表示制御装置、表示制御方法およびプログラム
JP2010108012A (ja) 情報処理装置、情報処理方法およびプログラム
AU2021102652A4 (en) User interfaces for viewing and refining the current location of an electronic device
WO2018042784A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019023902A (ja) プログラムおよび情報処理装置
JP6575518B2 (ja) 表示制御装置、表示制御方法およびプログラム
JP2017147697A (ja) 情報処理装置、情報処理方法およびプログラム
WO2017134868A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6693495B2 (ja) 情報処理装置、情報処理方法及び記録媒体
JP5289527B2 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
JPWO2019058788A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2016147693A1 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181024

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181024

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190521

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190930

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191015