JPWO2016052501A1 - ユーザインタフェース装置、プログラム及びコンテンツの通知方法 - Google Patents

ユーザインタフェース装置、プログラム及びコンテンツの通知方法 Download PDF

Info

Publication number
JPWO2016052501A1
JPWO2016052501A1 JP2016552060A JP2016552060A JPWO2016052501A1 JP WO2016052501 A1 JPWO2016052501 A1 JP WO2016052501A1 JP 2016552060 A JP2016552060 A JP 2016552060A JP 2016552060 A JP2016552060 A JP 2016552060A JP WO2016052501 A1 JPWO2016052501 A1 JP WO2016052501A1
Authority
JP
Japan
Prior art keywords
content
character
user
specific
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016552060A
Other languages
English (en)
Inventor
俊治 栗栖
俊治 栗栖
真紀 佐々木
真紀 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2016052501A1 publication Critical patent/JPWO2016052501A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M19/00Current supply arrangements for telephone systems
    • H04M19/02Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
    • H04M19/04Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Abstract

本発明のユーザインタフェース装置は、画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得する取得部111と、取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行うキャラクタを画面に表示させる表示制御部112と、キャラクタが特定の動作を行っているときにユーザから入力を受け付けると、特定の種別のコンテンツをキャラクタを介してユーザに通知する通知部113とを備える。

Description

本発明は、キャラクタを用いたユーザインタフェースに関する。
ユーザインタフェースにおいて、アバターなどのキャラクタを介在させる技術が知られている。このようなユーザインタフェースは、ゲーム機、スマートフォン、パーソナルコンピュータなどにおいて周知の技術である。また、特許文献1には、情報を検索及び提示する場合において、提案アイテムに対する自信や熱意といった感情を伴わせてキャラクタの動作や表情を生成することが記載されている。
特開2001−249949号公報
しかし、従来の技術においては、情報の通知が画一的であり、キャラクタを用いたとしてもユーザにとっては機械的に感じられることが多かった。
本発明の目的は、人間とのやり取りにより近い自然なユーザインタフェースを提供することにある。
本発明は、画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得する取得部と、前記取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行う前記キャラクタを前記画面に表示させる表示制御部と、前記キャラクタが前記特定の動作を行っているときに前記ユーザから入力を受け付けると、前記特定の種別のコンテンツを前記キャラクタを介して前記ユーザに通知する通知部とを備えるユーザインタフェース装置を提供する。
前記表示制御部は、前記キャラクタ又は当該キャラクタに付随して表示されるオブジェクトの外観を、前記コンテンツの種別に応じて変化させてもよい。
前記表示制御部は、前記特定の動作の態様を、前記取得された前記特定の種別のコンテンツに応じて変化させてもよい。
前記表示制御部は、前記取得されたコンテンツが前記特定の種別のコンテンツでない場合に、当該特定の種別のコンテンツが取得された場合と異なる表示態様で前記キャラクタを表示させてもよい。
前記ユーザインタフェース装置は、自装置の位置を特定する位置特定部を備え、前記特定の種別のコンテンツは、特定の位置に関連付けられたコンテンツであり、前記表示制御部は、前記特定の種別のコンテンツが取得され、当該コンテンツが特定の位置に関連付けられている場合において、前記位置特定部により特定された位置と前記特定の位置とが所定の条件を満たすとき、前記特定の動作を行うキャラクタを表示させてもよい。
前記入力は、操作による入力と音声による入力とを含み、前記通知部は、前記入力が操作による場合に、通知するコンテンツを制限してもよい。
前記取得部は、前記特定の種別のコンテンツを複数取得し、前記入力は、操作による入力と音声による入力とを含み、前記通知部は、前記入力が操作又は音声のいずれによるかに応じて、コンテンツの通知態様を異ならせてもよい。
前記表示制御部は、前記入力が受け付けられた位置若しくは日時又は当該入力により通知されたコンテンツに応じて、以降に前記特定の動作を行うキャラクタを表示するタイミングを制御してもよい。
また、本発明は、コンピュータに、画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得するステップと、前記取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行う前記キャラクタを前記画面に表示させるステップと、前記キャラクタが前記特定の動作を行っているときに前記ユーザから入力を受け付けると、前記特定の種別のコンテンツを前記キャラクタを介して通知するステップとを実行させるためのプログラムを提供する。
また、本発明は、画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得し、前記取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行う前記キャラクタを前記画面に表示し、前記キャラクタが前記特定の動作を行っているときに前記ユーザから入力を受け付けると、前記特定の種別のコンテンツを前記キャラクタを介して通知するコンテンツの通知方法を提供する。
本発明によれば、人間とのやり取りにより近い自然なユーザインタフェースを提供することが可能である。
情報配信システム10の構成を示すブロック図 ユーザ端末100のハードウェア構成を示すブロック図 配信装置200のハードウェア構成を示すブロック図 キャラクタの表示画面の一例を示す図 キャラクタの表示画面の一例を示す図 ユーザ端末100の表示制御に関する機能的構成を示すブロック図 通知処理の一例を示すフローチャート
[実施例]
図1は、本発明の一実施例に係る情報配信システム10の構成を示すブロック図である。情報配信システム10は、ユーザ端末100にコンテンツを配信するためのコンピュータシステムである。情報配信システム10は、複数のユーザ端末100と配信装置200とを備え、これらをネットワーク300によって接続した構成である。ネットワーク300は、例えばインターネットや移動体通信網である。
ここにおいて、コンテンツとは、文字、画像、音声などによって表された情報をいい、デジタルコンテンツともいう。本実施例におけるコンテンツは、例えば、気象情報(天気予報、注意報など)、飲食店などの施設に関する情報、コンサート、展覧会などのイベント(催事)に関する情報、といったものである。また、コンテンツには、所定の位置に関連付けられたものがあってもよい。なお、コンテンツは、Webページであってもよいが、ユーザ端末100において利用可能なフォーマットのデータであればどのようなものであってもよい。また、本実施例におけるコンテンツには、ユーザとの対話を実現するためのコンテンツが含まれる。
ユーザ端末100は、ユーザが所持及び携帯する電子機器であり、本発明に係るユーザインタフェース装置の一例である。ユーザ端末100は、典型的には、いわゆるスマートフォンやタブレット端末であるが、必ずしもこれらに限定されない。本実施例において、ユーザ端末100は、音声エージェント機能を有する。ここにおいて、音声エージェント機能とは、ユーザ端末100に対する入力を音声によって受け付け、ユーザ端末100の操作や設定を補助する機能をいう。この音声エージェント機能によって、ユーザ端末100は、Webページなどを合成音声によって読み上げることや、合成音声によってユーザに問いかけ、ユーザの入力を促すことが可能である。
本実施例の音声エージェント機能は、ユーザ端末100に表示されるキャラクタを介して行われる。ここでいうキャラクタは、例えばアバターであり、漫画等の登場人物、著名人、動物などを模した画像である。キャラクタは、ポリゴンによって表現された3次元形状を有するものであってもよい。ユーザは、キャラクタを介することによって、あたかも実際の人間を相手にするように会話することでユーザ端末100に情報を入力することが可能である。なお、このキャラクタは、本実施例においてはユーザ端末100の待ち受け画面(又はホーム画面)に表示される。
図2は、ユーザ端末100のハードウェア構成を示すブロック図である。ユーザ端末100は、制御部110と、記憶部120と、通信部130と、入力部140と、出力部150と、センサ部160とを備える。
制御部110は、ユーザ端末100の各部の動作を制御する手段である。制御部110は、CPU(Central Processing Unit)、アプリケーションプロセッサなどの演算処理装置とメモリ(主記憶装置)とを備え、プログラムを実行することによりユーザ端末100の各部の動作を制御する。制御部110が実行するプログラムには、上述した音声エージェント機能を実現するためのアプリケーションプログラムが含まれる。このアプリケーションプログラムの機能には、キャラクタの表示制御も含まれる。
記憶部120は、データを記憶する手段である。記憶部120は、フラッシュメモリなどの記憶媒体を備える。この記憶媒体は、ユーザ端末100に対して着脱可能であってもよい。記憶部120は、制御部110の動作に必要なデータや、配信装置から受信したコンテンツなどを記憶することができる。
通信部130は、ネットワーク300を介してデータを送受信する手段である。通信部130は、ベースバンドプロセッサやアンテナを備え、ネットワーク300に応じた変調及び復調を行ってデータを送受信する。通信部130は、ネットワーク300を介して、配信装置200からコンテンツを受信する。
入力部140は、データの入力を受け付ける手段である。入力部140は、キーパッドやマイクロホンを備える。また、入力部140は、表示部がタッチスクリーンディスプレイによって構成される場合には、タッチスクリーンディスプレイのセンサ部分を含んでもよい。以下においては、入力部140が受け付ける入力のうちキーパッドやタッチスクリーンディスプレイの操作によるものを「操作入力」といい、マイクロホンによるものを「音声入力」という。
出力部150は、データを出力する手段である。出力部150は、液晶ディスプレイなどにより構成された表示部やスピーカを備える。この表示部は、上述したようにタッチスクリーンディスプレイによって構成されてもよい。
センサ部160は、ユーザ端末100及びユーザの状態変化を検知する手段であり、複数のセンサを備える。センサ部160は、例えば、ユーザ端末100の位置を検知するGPS(Global Positioning System)モジュールを含む。また、センサ部160は、ユーザ端末100の移動によって生じる加速度を検知する加速度センサ、ユーザ端末100の傾きを検知するジャイロスコープを含んでもよい。さらに、センサ部160は、温度、気圧、湿度、照度(明るさ)といったユーザ端末100の周囲の環境を検知可能であってもよいし、心拍センサによってユーザの心拍数を計測してもよい。
配信装置200は、コンテンツを配信するためのサーバ装置である。配信装置200は、複数のコンテンツを記憶し、それぞれのユーザに応じたコンテンツをユーザ端末100に送信する。配信装置200に記憶されるコンテンツは、他の事業者(コンテンツプロバイダ)によって制作され、当該事業者から提供されたものであってもよい。
図3は、配信装置200のハードウェア構成を示すブロック図である。配信装置200は、制御部210と、記憶部220と、通信部230とを備える。なお、配信装置200は、単体の装置として構成されるのではなく、複数のサーバ装置の協働によって実現されてもよい。
制御部210は、配信装置200の各部の動作を制御する手段である。制御部210は、CPUなどの演算処理装置とメモリとを備える。制御部210は、各ユーザに対するコンテンツの配信を制御するプログラムを実行することにより、それぞれのユーザに応じたコンテンツを所定のタイミングで配信することが可能である。
記憶部220は、データを記憶する手段である。記憶部220は、ハードディスクなどの記憶媒体を備え、制御部210の動作に必要なデータや、ユーザ端末100に配信するコンテンツなどを記憶する。
通信部230は、ネットワーク300を介してデータを送受信する手段である。通信部230は、ユーザ端末100にコンテンツを送信するほか、必要に応じて、外部のサーバ装置などからコンテンツを受信することが可能である。
情報配信システム10の構成は、以上のとおりである。ユーザ端末100は、音声エージェント機能により、ユーザの各種操作(情報の検索、ユーザ端末100の機能に関する設定など)を補助したり、各種の通知を音声で行ったりすることが可能である。ユーザは、ユーザ端末100に話しかけることによって操作を行うことが可能である。
また、ユーザ端末100は、コンテンツを出力(表示等)することが可能である。ユーザ端末100は、例えば、利用可能なコンテンツを所定の画面(待ち受け画面以外の画面)に一覧表示し、その中からユーザが選択したコンテンツを出力する。この場合、ユーザは、コンテンツを閲覧等するためには所定の画面を表示させる操作を行う必要がある。このようなコンテンツの出力形式のことを、以下においては「第1形式」という。
また、ユーザ端末100は、第1形式のほかに、ユーザに推薦するコンテンツをキャラクタの表示によって報知する出力形式によってもコンテンツを出力することができる。以下においては、この出力形式のことを「第2形式」という。第2形式の場合、通知対象のコンテンツの有無が待ち受け画面を表示したときにわかるようになっており、この点において第1形式の場合と異なる。すなわち、第1形式の場合には、ユーザはコンテンツを閲覧等する明示的な意思及び操作を要する一方で、第2形式の場合には、ユーザ端末100を手に取り、最初に表示される画面を見るだけで、通知対象のコンテンツがあるかどうかがわかるようになっている。
なお、本実施例において、コンテンツは、複数の種別のいずれかに分類される。ここでは、コンテンツの種別は、「リコメンド」、「質問」、「雑談」及び「その他」の4種類であるとするが、もちろん他の種別によって分類されてもよい。これらの種別には、第1形式又は第2形式のいずれかの出力形式においてのみ出力されるものがあってもよい。
ここにおいて、「リコメンド」に分類されるコンテンツは、ユーザの属性(年齢、性別、よく行く場所、趣味・嗜好など)に応じたコンテンツ(すなわち、当該ユーザが興味を持つ可能性が高いと予想されるコンテンツ)である。例えば、ユーザが音楽に関心がある場合、コンサートの開催を告知するコンテンツは、当該ユーザのユーザ端末100において「リコメンド」に分類され得るコンテンツである。
次に、「質問」又は「雑談」に分類されるコンテンツは、ユーザとの対話を実現するためのコンテンツである。このうち、「質問」に分類されるコンテンツは、ユーザ端末100がユーザから情報(例えば、当該ユーザの属性)を取得するために行う質問を表すものである。具体的には、「質問」に分類されるコンテンツは、ユーザに対して、「スポーツはお好きですか?」、「誕生日はいつですか?」などといった質問を行い、ユーザに回答を求めるものである。ユーザ端末100は、このような質問によって得られた情報をコンテンツの抽出や分類に反映させることができる。
一方、「雑談」に分類されるコンテンツは、「質問」に分類されるコンテンツとは異なり、情報の取得を目的としないものである。具体的には、「おはようございます」、「今日は天気が良い(悪い)ですね」などの挨拶程度の会話を行うためのコンテンツが「雑談」に分類される。ユーザは、ユーザ端末100からの発話に対して回答することを必ずしも要しないが、「そうですね」などの一般的な受け答えをしてもよい。
なお、「その他」に分類されるコンテンツは、他のいずれの種別にも分類されないコンテンツである。あるコンテンツが「リコメンド」と「その他」のいずれに分類されるかは、ユーザの属性に応じて異なり得る。例えば、コンサートの開催を告知するコンテンツは、音楽に関心があるユーザにとっては「リコメンド」に分類されるが、そうでないユーザにとっては「その他」に分類される、といった相違が生じる。
図4、5は、キャラクタの表示画面の一例を示す図である。ユーザ端末100は、ユーザに推薦するコンテンツがあるとき、キャラクタC1に特定の動作を行わせる。図4に示す例において、特定の動作とは、キャラクタC1が(ユーザに伝えたいことがあるかのように)もぞもぞと動く、というものである。以下においては、キャラクタに特定の動作を行わせる表示のことを「特定表示」という。なお、特定表示の具体例は、この動作に限定されず、キャラクタが所定の2点間を行ったり来たりする動作であってもよいし、キャラクタの表情を小刻みに変える動作であってもよい。あるいは、特定表示は、キャラクタを特定の表情で表示させてもよいし、キャラクタが(何か伝えたいことがあるかのように)口を動かしたりさせてもよい。
本実施例において、特定表示は、ユーザに推薦するコンテンツがある場合のみに行われる。ユーザに推薦するコンテンツがない場合、ユーザ端末100は、例えば、キャラクタを静止させた状態で表示する、といったように、特定表示とは異なる態様でキャラクタを表示する。あるいは、ユーザ端末100は、ユーザに推薦するコンテンツがない場合にはキャラクタ自体を表示しなくてもよい。
また、特定表示時において、ユーザ端末100は、キャラクタC1の近傍に吹き出しB1を表示する。吹き出しB1は、キャラクタに付随して表示されるオブジェクトの一例である。吹き出しB1の内部は、コンテンツの一部やコンテンツの概要を示す文字又は画像などが表示されてもよい。なお、特定表示は、図5に示すように、吹き出しB1を特定の動作で動かすものであってもよいし、キャラクタC1と吹き出しB1の双方を特定の動作で動かすものであってもよい。
ユーザ端末100は、特定の種別のコンテンツについて特定表示を行う一方、その他の種別のコンテンツについては特定表示を行わない。本実施例においては、ユーザ端末100は、コンテンツの種別が「リコメンド」である場合に特定表示を行い、それ以外の種別のコンテンツについては特定表示を行わない。なお、ここでいう特定の種別(すなわち特定表示を行う種別)は、ユーザにより設定されてもよい。
図6は、ユーザ端末100の表示制御に関する機能的構成を示す機能ブロック図である。ユーザ端末100の制御部110は、所定のプログラムを実行することにより、以下に説明する取得部111、表示制御部112、通知部113及び位置特定部114に相当する機能を実現する。
取得部111は、コンテンツを取得する手段である。取得部111は、ネットワーク300を介して配信装置200からコンテンツを取得するほか、ユーザ端末100において生成され、又はユーザ端末100に記憶されているコンテンツを表示対象として取得することも可能である。例えば、「質問」又は「雑談」に分類されるコンテンツは、ユーザ端末100にあらかじめ記憶されていてもよいし、ユーザの位置や日時に基づいてユーザ端末100において生成されてもよい。なお、取得部111は、コンテンツを周期的に繰り返し取得してもよいし、複数のコンテンツを同時に(すなわち一括して)取得してもよい。
表示制御部112は、キャラクタの表示を制御する手段である。また、表示制御部112は、キャラクタに付随して表示されるオブジェクトがある場合、当該オブジェクトの表示もあわせて制御する。表示制御部112は、取得部111により取得されたコンテンツに基づいてキャラクタの表示を制御する。具体的には、表示制御部112は、取得部111により取得されたコンテンツが特定の種別(ここでは「リコメンド」)である場合に、キャラクタを特定表示させる。
通知部113は、コンテンツを通知する手段である。具体的には、通知部113は、キャラクタが特定表示を行っているときにユーザから所定の入力を受け付けると、取得部111により取得された特定の種別のコンテンツを通知する。ここでいう所定の入力は、操作入力(例えば、キャラクタをタップする操作)であってもよいが、音声入力であってもよい。例えば、キャラクタが特定表示されているときにユーザが所定の言葉(「どうしたの?」など)を発した場合に、通知部113がこれを認識してコンテンツを通知するように動作してもよい。
また、通知部113は、特定の種別のコンテンツを通知するとき、キャラクタを介して通知を行う。例えば、通知部113は、コンテンツが文字によって構成される場合であれば、キャラクタの合成音声によってコンテンツを読み上げてもよい。あるいは、通知部113は、吹き出しの中にコンテンツを表示し、あたかもキャラクタが言葉を発しているように表示してもよい。あるいは、通知部113は、キャラクタの声で「コンテンツを再生しますか?」といった音声を再生し、ユーザの入力(応答)を促してもよい。
位置特定部114は、自装置の位置を特定する手段である。本実施例において、ユーザ端末100は、ユーザに携帯されるものである。よって、ユーザ端末100の位置は、ユーザの位置と同一視できる。位置特定部114は、センサ部160のGPSモジュールから位置情報(緯度及び経度)を取得し、これにより位置を特定する。なお、本発明における位置の特定方法は、必ずしもGPSに限定されない。
なお、表示制御部112は、キャラクタの特定表示を行うタイミングを位置特定部114により特定された位置に応じて制御してもよい。例えば、表示制御部112は、所定の位置(例えば、自宅付近などのユーザがあらかじめ設定された場所)においてのみキャラクタの特定表示を行うようにしてもよい。また、通知対象のコンテンツが特定の位置に関連付けられている場合、表示制御部112は、位置特定部114により特定された位置と当該コンテンツに関連付けられた位置とが所定の条件を満たすときに特定表示を行うようにしてもよい。例えば、ある飲食店に関するコンテンツが通知対象である場合、表示制御部112は、ユーザが当該飲食店の近くにいるとき(すなわち、コンテンツに関連付けられた位置とユーザの位置の距離が所定の閾値以内になったとき)に特定表示を行うようにしてもよい。
図7は、キャラクタによる通知処理の一例を示すフローチャートである。ユーザ端末100の制御部110は、コンテンツを取得すると(ステップS1)、その種別を特定し(ステップS2)、その種別が特定の種別(ここでは「リコメンド」)であるか否かを判断する(ステップS3)。
制御部110は、取得したコンテンツが特定の種別である場合、キャラクタを特定表示により表示させる(ステップS4)。すなわち、このとき制御部110は、特定の動作をさせた上でキャラクタを表示させる。また、制御部110は、取得したコンテンツが特定の種別でない場合、キャラクタを特定表示させることなく通知処理を終了する。すなわち、このとき制御部110は、キャラクタを介したコンテンツの通知を行わない。
なお、取得したコンテンツが特定の種別でない場合、制御部110は、キャラクタを介して通知を行わないものの、キャラクタ自体は待ち受け画面に表示させてもよい。また、制御部110は、取得したコンテンツが特定の種別でない場合であっても、上述した第1形式によるコンテンツの出力を妨げない。
キャラクタを特定の動作により表示させた場合、制御部110は、ユーザからの入力を待機する。すなわち、制御部110は、所定の入力を受け付けたか否かを判断し(ステップS5)、当該入力を受け付けたらコンテンツを通知する(ステップS6)。また、制御部110は、所定の入力を受け付けるまでの間、特定表示を開始してからの経過時間が所定の閾値以上になったか否かを判断する(ステップS7)。この閾値は、例えば5〜10分程度であってもよいが、これより長くても短くてもよく、また、通知対象のコンテンツに応じて変化してもよい。制御部110は、所定時間が経過するまでステップS5の判断を繰り返し、所定時間が経過してもユーザからの入力がなかった場合には、コンテンツの通知を行うことなく通知処理を終了する。
なお、この通知処理を実行する間、制御部110は、画面を常に表示し続けていなくてもよい。制御部110は、ユーザの操作に応じて、あるいはユーザが一定期間操作を行わないことにより、画面表示を一時的にオフにしてもよい。この場合において、制御部110は、画面表示がオンであるかオフであるかによらずに上述した経過時間の計測を続ける。また、制御部110は、コンテンツの取得(ステップS1)からキャラクタの表示(ステップS4)までにタイムラグを設けてもよい。
以上説明したように、本実施例によれば、特定の種別のコンテンツのみについて特定表示が行われる。したがって、ユーザは、(全部ではなく)一部のコンテンツのみについてその有無をキャラクタの外観によって知ることが可能になる。また、本実施例によれば、ユーザに対して無条件に、いわば一方的にコンテンツを通知することがないため、コンテンツが一方的に通知される場合のような煩雑さがなくなる。本実施例によれば、ユーザの状況に応じて、すなわちユーザが所望するタイミングのみでコンテンツを通知することが可能である。
また、本実施例において、ユーザ端末100の動作は、特定の種別のコンテンツの通知の可否をキャラクタの外観によりユーザに問いかける形となっている。このような報知は、ユーザが待ち受け画面を見るという行為を行うことによって実現されるため、音声や振動による報知に比べ、ユーザの意に反して行われることがない。また、このような形でユーザと対話することで、(機械的ではなく)人間とのやり取りにより近い双方向的で自然なインターフェイスによってコミュニケーションを行うことが可能である。
[変形例]
本発明の実施の態様は、上述した実施例のみに限定されない。以下に示すのは、本発明の他の実施形態の一例である。なお、本発明は、上述した実施例と1又は複数の変形例とを適宜に組み合わせた態様でも実施可能である。
(1)コンテンツの種別
本発明において、特定の種別、すなわち特定表示の対象となるコンテンツの種別は、複数あってもよい。この場合において、ユーザ端末100は、キャラクタや吹き出しの外観をコンテンツの種別に応じて変化させてもよい。このようにすれば、ユーザがキャラクタを見ただけでコンテンツの種別がわかるようになり、閲覧等の要否を事前に判断することが可能になる。また、ユーザ端末100は、キャラクタによる通知対象のコンテンツが時間経過に伴って変化する場合には、コンテンツの変化に応じてキャラクタや吹き出しの外観も変化させてもよい。
また、ユーザ端末100は、特定表示の対象となったコンテンツのうち実際に通知を行ったコンテンツの種別を記録し、以降の表示に反映させてもよい。例えば、ユーザ端末100は、ユーザが実際に閲覧等した回数がより多い種別のコンテンツを優先的に通知するようにしてもよい。
(2)特定表示のバリエーション
ユーザ端末100は、特定表示の態様をコンテンツに応じて変化させてもよい。例えば、ユーザ端末100は、コンテンツのデータ容量に応じてキャラクタの動きを変え、コンテンツのデータ容量が大きいほどキャラクタが激しく動くようにしてもよい。また、ユーザ端末100は、コンテンツから文字列を抽出することによってその内容を解析し、解析結果に応じたキャラクタを表示させてもよい。あるいは、ユーザ端末100は、通知対象のコンテンツが飲食店に関する情報である場合には、フォークやナイフなどのオブジェクトをキャラクタとともに表示させる、といったように、コンテンツの内容を推測できるようなオブジェクトを表示させてもよい。
(3)推薦度の利用
ユーザ端末100は、通知対象となるコンテンツについて、ユーザへの推薦の度合い(以下「推薦度」という。)を算出してもよい。推薦度は、例えば、ユーザの属性、日時、位置などに基づいて算出される。ユーザ端末100は、この推薦度に応じて特定表示のタイミングや態様を変化させてもよい。あるいは、ユーザ端末100は、推薦度が高いものほど上述したステップS7における閾値を大きくする、といったように、当該閾値を推薦度に応じて変化させてもよい。
(4)スケジュール情報の活用
ユーザ端末100は、ユーザの予定に関する情報を取得してもよい。ユーザ端末100は、例えば、スケジューラと呼ばれるアプリケーションプログラムからユーザの予定に関する情報を取得することが可能である。ユーザ端末100は、ユーザの予定に関する情報に基づいて特定表示のタイミングを制御してもよい。例えば、ユーザ端末100は、ユーザが予定を登録していない時間帯(すなわち、時間的な余裕があると推測される時間帯)に特定表示を行うようにしてもよい。
(5)入力方法
ユーザ端末100は、特定表示時において、ユーザの入力が操作入力であるか音声入力であるかによってその後の動作を異ならせてもよい。例えば、ユーザ端末100は、ユーザの入力が操作入力であった場合にはコンテンツを表示する一方、ユーザの入力が音声入力であった場合にはコンテンツを音声により再生してもよい。このようにすれば、例えば、声を出すことが憚られる状況においてユーザ端末100が音声を再生する、といったことを防ぐことが可能である。また、ユーザ端末100は、通知対象のコンテンツが複数ある場合には、ユーザの入力が操作入力であるか音声入力であるかによって通知するコンテンツを異ならせてもよい。
また、ユーザ端末100は、ユーザの入力が操作入力であった場合には、周りに他人がいる場合であると推測して、通知するコンテンツを制限してもよい。このような場合、ユーザ端末100は、例えばユーザのプライバシーに関する情報など、所定のコンテンツについては、ユーザの入力が音声入力である場合のみに通知し、ユーザの操作入力である場合には通知しないようにしてもよい。
(6)入力が行われた日時および場所についての情報の活用
ユーザ端末100は、特定表示時において、ユーザの入力が受け付けられた位置又は日時に基づいて、以降の特定表示のタイミングを制御してもよい。例えば、ユーザ端末100は、ユーザの入力が受け付けられた位置又は日時に一定の傾向があり、コンテンツの通知がよく行われる場所又は時間帯が存在すると判断した場合、その場所や時間帯において特定表示を行うようにしてもよい。あるいは、ユーザ端末100は、複数の種別のコンテンツが通知対象である場合に、実際に閲覧等が行われた回数が多い種別とそれ以外の種別とで特定表示のタイミングを異ならせてもよい。
本発明に係るユーザインタフェース装置は、上述したユーザ端末100、すなわちスマートフォンやタブレット端末に限定されない。本発明に係る表示制御装置は、例えば、携帯用のゲーム機やミュージックプレイヤであってもよいし、いわゆるパーソナルコンピュータであってもよい。
また、本発明は、ユーザインタフェース装置(又はこれを備える電子機器)のほか、ユーザインタフェース装置と配信装置とを含む情報配信システム、コンピュータ(CPU等)をユーザインタフェース装置として機能させるためのプログラム、コンテンツの通知方法などを提供することが可能である。また、このプログラムは、光ディスクなどの記録媒体に記録した形態や、インターネットなどのネットワークを介して所定の装置にダウンロードされ、これをインストールすることで利用可能になる形態などでも提供され得る。
10…情報配信システム、100…ユーザ端末、110…制御部、120…記憶部、130…通信部、140…入力部、150…出力部、160…センサ部、111…取得部、112…表示制御部、113…通知部、114…位置特定部、200…配信装置、300…ネットワーク

Claims (10)

  1. 画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得する取得部と、
    前記取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行う前記キャラクタを前記画面に表示させる表示制御部と、
    前記キャラクタが前記特定の動作を行っているときに前記ユーザから入力を受け付けると、前記特定の種別のコンテンツを前記キャラクタを介して当該ユーザに通知する通知部と
    を備えるユーザインタフェース装置。
  2. 前記表示制御部は、前記キャラクタ又は当該キャラクタに付随して表示されるオブジェクトの外観を、前記コンテンツの種別に応じて変化させる
    請求項1に記載のユーザインタフェース装置。
  3. 前記表示制御部は、前記特定の動作の態様を、前記取得された前記特定の種別のコンテンツに応じて変化させる
    請求項1又は2に記載のユーザインタフェース装置。
  4. 前記表示制御部は、前記取得されたコンテンツが前記特定の種別のコンテンツでない場合に、当該特定の種別のコンテンツが取得された場合と異なる表示態様で前記キャラクタを表示させる
    請求項1ないし3のいずれか1項に記載のユーザインタフェース装置。
  5. 自装置の位置を特定する位置特定部を備え、
    前記特定の種別のコンテンツは、特定の位置に関連付けられたコンテンツであり、
    前記表示制御部は、前記特定の種別のコンテンツが取得され、当該コンテンツが特定の位置に関連付けられている場合において、前記位置特定部により特定された位置と前記特定の位置とが所定の条件を満たすとき、前記特定の動作を行うキャラクタを表示させる
    請求項1ないし4のいずれか1項に記載のユーザインタフェース装置。
  6. 前記入力は、操作による入力と音声による入力とを含み、
    前記通知部は、前記入力が操作による場合に、通知するコンテンツを制限する
    請求項1ないし5のいずれか1項に記載のユーザインタフェース装置。
  7. 前記取得部は、前記特定の種別のコンテンツを複数取得し、
    前記入力は、操作による入力と音声による入力とを含み、
    前記通知部は、前記入力が操作又は音声のいずれによるかに応じて、通知するコンテンツを異ならせる
    請求項1ないし5のいずれか1項に記載のユーザインタフェース装置。
  8. 前記表示制御部は、前記入力が受け付けられた位置若しくは日時又は当該入力により通知されたコンテンツに応じて、以降に前記特定の動作を行うキャラクタを表示するタイミングを制御する
    請求項1ないし7のいずれか1項に記載のユーザインタフェース装置。
  9. コンピュータに、
    画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得するステップと、
    前記取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行う前記キャラクタを前記画面に表示させるステップと、
    前記キャラクタが前記特定の動作を行っているときに前記ユーザから入力を受け付けると、前記特定の種別のコンテンツを前記キャラクタを介して前記ユーザに通知するステップと
    を実行させるためのプログラム。
  10. 画面に表示されてユーザと対話するキャラクタによって通知されるコンテンツを取得し、
    前記取得されたコンテンツが特定の種別のコンテンツである場合に、特定の動作を行う前記キャラクタを前記画面に表示し、
    前記キャラクタが前記特定の動作を行っているときに前記ユーザから入力を受け付けると、前記特定の種別のコンテンツを前記キャラクタを介して前記ユーザに通知する
    コンテンツの通知方法。
JP2016552060A 2014-09-29 2015-09-29 ユーザインタフェース装置、プログラム及びコンテンツの通知方法 Pending JPWO2016052501A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014198907 2014-09-29
JP2014198907 2014-09-29
PCT/JP2015/077512 WO2016052501A1 (ja) 2014-09-29 2015-09-29 ユーザインタフェース装置、プログラム及びコンテンツの通知方法

Publications (1)

Publication Number Publication Date
JPWO2016052501A1 true JPWO2016052501A1 (ja) 2017-04-27

Family

ID=55630528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016552060A Pending JPWO2016052501A1 (ja) 2014-09-29 2015-09-29 ユーザインタフェース装置、プログラム及びコンテンツの通知方法

Country Status (4)

Country Link
US (1) US20170263036A1 (ja)
EP (1) EP3203362A1 (ja)
JP (1) JPWO2016052501A1 (ja)
WO (1) WO2016052501A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10834217B2 (en) * 2017-08-16 2020-11-10 T-Mobile Usa, Inc. Managing mobile notifications received via a wireless communication network
JP2019050018A (ja) * 2018-11-09 2019-03-28 富士ゼロックス株式会社 表示制御方法、情報処理装置及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10301675A (ja) * 1997-02-28 1998-11-13 Toshiba Corp マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法
JP2000175117A (ja) * 1998-12-10 2000-06-23 Matsushita Electric Ind Co Ltd テレビジョン受像機
JP2003233616A (ja) * 2002-02-13 2003-08-22 Matsushita Electric Ind Co Ltd 提供情報提示装置、および情報提供装置
JP2004021521A (ja) * 2002-06-14 2004-01-22 Sony Corp 情報処理装置および方法、並びにプログラム
JP2004280667A (ja) * 2003-03-18 2004-10-07 Victor Co Of Japan Ltd 画像信号生成装置
JP2006031379A (ja) * 2004-07-15 2006-02-02 Sony Corp 情報提示装置及び情報提示方法
JP2009116451A (ja) * 2007-11-02 2009-05-28 Ntt Docomo Inc 情報提供システム及び情報提供方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10301675A (ja) * 1997-02-28 1998-11-13 Toshiba Corp マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法
JP2000175117A (ja) * 1998-12-10 2000-06-23 Matsushita Electric Ind Co Ltd テレビジョン受像機
JP2003233616A (ja) * 2002-02-13 2003-08-22 Matsushita Electric Ind Co Ltd 提供情報提示装置、および情報提供装置
JP2004021521A (ja) * 2002-06-14 2004-01-22 Sony Corp 情報処理装置および方法、並びにプログラム
JP2004280667A (ja) * 2003-03-18 2004-10-07 Victor Co Of Japan Ltd 画像信号生成装置
JP2006031379A (ja) * 2004-07-15 2006-02-02 Sony Corp 情報提示装置及び情報提示方法
JP2009116451A (ja) * 2007-11-02 2009-05-28 Ntt Docomo Inc 情報提供システム及び情報提供方法

Also Published As

Publication number Publication date
EP3203362A1 (en) 2017-08-09
US20170263036A1 (en) 2017-09-14
WO2016052501A1 (ja) 2016-04-07

Similar Documents

Publication Publication Date Title
US11102624B2 (en) Automated messaging
US10515655B2 (en) Emotion type classification for interactive dialog system
US10498673B2 (en) Device and method for providing user-customized content
US9794355B2 (en) Systems and methods for adaptive notification networks
CN107211198B (zh) 用于编辑内容的装置和方法
US20170013106A1 (en) System and method of providing voice-message call service
US20170031575A1 (en) Tailored computing experience based on contextual signals
CN113632497B (zh) 生成具有增强图标的个性化地图界面
KR101975431B1 (ko) 콘텐츠 항목 표시 시스템, 방법 및 기기
CN114205324B (zh) 消息显示方法、装置、终端、服务器及存储介质
US20150134687A1 (en) System and method of sharing profile image card for communication
US11436265B2 (en) System for presenting tailored content based on user sensibilities
US11244682B2 (en) Information processing device and information processing method
KR20160065670A (ko) 컨텐트를 제공하는 방법 및 디바이스
RU2603532C2 (ru) Интеллектуальная среда
WO2016052501A1 (ja) ユーザインタフェース装置、プログラム及びコンテンツの通知方法
US20200204874A1 (en) Information processing apparatus, information processing method, and program
US10965888B1 (en) Subtitle presentation based on volume control
JP2019036201A (ja) 出力制御装置、出力制御方法及び出力制御プログラム
US11908489B2 (en) Tap to advance by subtitles
JP2016212478A (ja) 端末装置、通知方法、プログラム及びコンテンツ提供システム
JP6482703B1 (ja) 推定装置、推定方法および推定プログラム
KR20220081090A (ko) 감정 기반 멀티미디어 컨텐츠 생성 방법 및 시스템
WO2019054009A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170626

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170815