JP2016015009A - 情報処理システム、情報処理端末、および情報処理方法 - Google Patents

情報処理システム、情報処理端末、および情報処理方法 Download PDF

Info

Publication number
JP2016015009A
JP2016015009A JP2014136553A JP2014136553A JP2016015009A JP 2016015009 A JP2016015009 A JP 2016015009A JP 2014136553 A JP2014136553 A JP 2014136553A JP 2014136553 A JP2014136553 A JP 2014136553A JP 2016015009 A JP2016015009 A JP 2016015009A
Authority
JP
Japan
Prior art keywords
user
information processing
message
information
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014136553A
Other languages
English (en)
Inventor
征志 中田
Seishi Nakada
征志 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014136553A priority Critical patent/JP2016015009A/ja
Priority to PCT/JP2015/061759 priority patent/WO2016002306A1/ja
Priority to US15/312,268 priority patent/US10546402B2/en
Publication of JP2016015009A publication Critical patent/JP2016015009A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06T5/70
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/10Details of telephonic subscriber devices including a GPS signal receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Abstract

【課題】メッセージを入力した際のユーザの状況をメッセージと併せて他のユーザに伝達することが可能な情報処理システムを提供する。
【解決手段】複数のユーザがそれぞれ入力したメッセージを取得するメッセージ取得部と、撮像装置を用いて、前記メッセージを入力したユーザに関連した情報を取得する関連情報取得部と、前記ユーザに関連した情報に基づいて、入力された前記メッセージを伝達するための情報処理を制御する制御部と、を備える、情報処理システム。
【選択図】図1

Description

本開示は、情報処理システム、情報処理端末、および情報処理方法に関する。
近年、地理的に離れた場所にいる2人以上のユーザ間におけるコミュニケーション手段として、電子メール、ショートメッセージサービス(SMS:short message service)およびチャットなどのメッセージングシステムが広く普及している。
ユーザは、このようなコミュニケーション手段を用いることによって、時間や場所を問わずにテキスト等のメッセージを送受信することができる。
ここで、特許文献1には、加速度センサやジャイロセンサ等に基づいてユーザの行動を認識し、認識した該ユーザの行動を表す行動情報と、ユーザの現在位置情報とを表示することによりユーザの状態を伝達する技術が開示されている。
特開2009−118513号公報
しかし、特許文献1に開示された技術では、ユーザは、他のユーザの現在の位置や行動を確認することはできるものの、該ユーザの状態の変遷について知ることは困難であった。すなわち、特許文献1に開示された技術では、メッセージが送受信されるメッセージングシステムにおいて、メッセージが入力された際にユーザがどのような状況であったのかをメッセージごとに知ることは困難であった。
そこで、本開示では、メッセージが入力された際のユーザの状況に関する情報を該メッセージに付与することにより、メッセージと併せてユーザの状況を伝達することが可能な、新規かつ改良された情報処理システム、情報処理端末、および情報処理方法を提案する。
本開示によれば、複数のユーザがそれぞれ入力したメッセージを取得するメッセージ取得部と、撮像装置を用いて、前記メッセージを入力したユーザに関連した情報を取得する関連情報取得部と、前記ユーザに関連した情報に基づいて、入力された前記メッセージを伝達するための情報処理を制御する制御部と、を備える、情報処理システムが提供される。
また、本開示によれば、ユーザが入力したメッセージを取得するメッセージ取得部と、撮像装置を用いて、前記ユーザに関連した情報を取得する関連情報取得部と、前記ユーザに関連した情報と、入力された前記メッセージとを紐付けて送信する制御部と、を備える、情報処理端末が提供される。
また、本開示によれば、複数のユーザがそれぞれ入力したメッセージを取得することと、撮像装置を用いて、前記メッセージを入力したユーザに関連した情報を取得することと、前記ユーザに関連した情報に基づいて、入力された前記メッセージを伝達するための情報処理を制御することと、含む、情報処理方法が提供される。
本開示によれば、メッセージを入力したユーザに関連した情報を取得し、該ユーザに関連した情報に基づいて、メッセージを伝達するための情報処理を制御することができる。
以上説明したように本開示によれば、メッセージを入力した際のユーザの状況をメッセージと併せて他のユーザに伝達することができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示に係る情報処理システムの構成の一例を示した説明図である。 本開示の第1の実施形態に係る情報処理システムの内部構成を示したブロック図である。 同実施形態に係る制御部が生成する表示の一例を示した説明図である。 同実施形態に係る制御部が生成する表示の一例を示した説明図である。 同実施形態に係る情報処理システムの動作例を示したフローチャート図である。 図3Bの表示の変形例を示す説明図である。 同実施形態に係る情報処理システムの動作の変形例を示したフローチャート図である。 本開示の第2の実施形態に係る情報処理システムの内部構成を示したブロック図である。 同実施形態に係る制御部が生成する表示の一例を示した説明図である。 同実施形態に係る制御部が生成する表示の一例を示した説明図である。 同実施形態に係る情報処理システムの動作例を示したフローチャート図である。 本開示の第3の実施形態に係る情報処理システムの内部構成を示したブロック図である。 同実施形態に係る制御部が生成する表示の一例を示した説明図である。 同実施形態に係る制御部が生成する表示の一例を示した説明図である。 同実施形態に係る制御部が生成する表示の一例を示した説明図である。 同実施形態に係る情報処理システムの動作例を示したフローチャート図である。 第4の実施形態に係る情報処理システムが生成する表示の一例を示した説明図である。 同実施形態に係る情報処理システムの動作例を示したフローチャート図である。 本開示の第5の実施形態に係る情報処理システムの概略を示した説明図である。 同実施形態に係る情報処理システムの内部構成を示したブロック図である。 同実施形態に係る制御部が生成する表示の一例を示した説明図である。 同実施形態に係る制御部が生成する表示の一例を示した説明図である。 同実施形態に係る情報処理システムの動作例を示したフローチャート図である。 本開示の各実施形態に係る情報処理装置7のハードウェア構成を説明した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示に係る情報処理システムの概略構成
2.第1の実施形態
2.1.情報処理システムの構成例
2.2.情報処理システムの動作例
2.3.情報処理システムの動作の変形例
3.第2の実施形態
3.1.情報処理システムの構成例
3.2.情報処理システムの動作例
4.第3の実施形態
4.1.情報処理システムの構成例
4.2.情報処理システムの動作例
5.第4の実施形態
5.1.情報処理システムの動作例
6.第5の実施形態
6.1.情報処理システムの構成例
6.2.情報処理システムの動作例
7.ハードウェア構成例
<1.本開示に係る情報処理システムの概略構成>
まず、図1を参照して、本開示に係る情報処理システムの概略構成について説明する。図1は、本開示に係る情報処理システムの構成の一例を示した説明図である。
図1に示すように、本開示に係る情報処理システムは、ネットワーク3を介して接続された複数の情報処理端末1と、情報処理サーバ2とを備える。また、複数の情報処理端末1および情報処理サーバ2は、ネットワーク3を介して相互に通信している。
ここで、本開示に係る情報処理システムは、例えば、テキストメッセージを送受信することにより、地理的に離れた場所にいる2人以上のユーザ同士がコミュニケーションすることを可能にする情報処理システムである。具体的には、本開示に係る情報処理システムは、電子メール、ショートメッセージサービス、インスタントメッセンジャー、およびチャットなどのメッセージングシステムであってもよい。
本開示に係る情報処理システムは、ユーザによって情報処理端末1に入力されたメッセージを取得し、さらに情報処理端末1が備える撮像装置などの各種センサを用いて、メッセージを入力したユーザに関連した情報を取得する。また、本開示に係る情報処理システムは、取得した該ユーザに関連した情報に基づいて、メッセージを伝達するための情報処理を制御する。この構成によれば、本開示に係る情報処理システムは、メッセージと併せてメッセージが入力された際のユーザの状況についても伝達することが可能である。
情報処理端末1は、ユーザによってメッセージが入力される情報処理装置である。また、情報処理端末1は、撮像装置などの各種センサを備え、入力されたメッセージと、各種センサにより取得したユーザに関連した情報とを情報処理サーバ2に送信する。情報処理端末1は、例えば、携帯電話、スマートフォンまたはタブレット端末などの持ち運び可能な情報処理端末であってもよい。なお、本開示において、ネットワーク3に接続する情報処理端末1の個数は、複数であればよく、特に限定されるものではない。
情報処理サーバ2は、ユーザに関連した情報を情報処理端末1から受信し、該ユーザに関連した情報に基づいて、情報処理端末1に入力されたメッセージを伝達するための情報処理を制御する。具体的には、情報処理サーバ2は、情報処理端末1に入力されたメッセージと、該メッセージを入力したユーザに関連した情報とを取得し、ユーザに関連した情報に基づいてメッセージを伝達するための表示を生成し、各情報処理端末1へ送信する。ここで、情報処理サーバ2が実行する情報処理の詳細については、以下の第1〜第5の実施形態においてそれぞれ後述する。なお、情報処理サーバ2が実行する情報処理のうちの一部または全部は、各情報処理端末1にて実行されてもよい。
ネットワーク3は、各情報処理端末1と、情報処理サーバ2との間の通信を可能にする通信網である。ネットワーク3は、例えば、インターネット、衛星通信網、電話回線網などの公衆回線網、LAN(Local Area Network)、またはWAN(Wide Area Network)などであってもよい。
以下では、上述した本開示に係る情報処理システムの具体的な構成について、第1〜第5の実施形態に分けて詳述する。
<2.第1の実施形態>
まず、図2〜図6を参照して、本開示の第1の実施形態に係る情報処理システムについて説明する。本開示の第1の実施形態に係る情報処理システムは、撮像装置を有する情報処理端末1Aを備え、入力されたメッセージと、該撮像装置にて撮像された画像とを関連付けて配置した表示を生成する。これにより、本開示の第1の実施形態に係る情報処理システムは、メッセージが入力された際のユーザの状況をメッセージと併せて伝達することができる。
具体的には、情報処理システムは、ユーザがメッセージを入力、送信する際の所定の入力操作に基づいて、撮像装置にて撮像し、画像を取得する。また、情報処理システムは、入力されたメッセージと、撮像装置により取得された画像とを関連付けて配置した表示を生成し、情報処理端末1Aに送信する。この情報処理システムによれば、メッセージを送信するユーザは、メッセージと併せて、メッセージを入力した際の周囲の様子を撮像画像にて伝達することができる。
なお、撮像装置により撮像された画像は、映り込んだ人のプライバシーを考慮して、メッセージを入力した際の周囲の雰囲気が伝達できる程度まで視認性を低下させるぼかし処理が施されてもよい。また、撮像装置が情報処理端末1の表示部と同一面側に備えられている場合、撮像装置が撮像する画像は、ユーザの顔を含んでもよい。一方、撮像装置が情報処理端末1の表示部と異なる面側に備えられている場合、撮像装置が撮像する画像は、ユーザの顔を含まなくてもよい。
[2.1.情報処理システムの構成例]
まず、図2を参照して、本開示の第1の実施形態に係る情報処理システムの具体的な構成について説明する。図2は、本開示の第1の実施形態に係る情報処理システムの内部構成を示したブロック図である。
図2に示すように、本開示の第1の実施形態に係る情報処理システムは、情報処理端末1Aと、情報処理サーバ2Aとを備える。また、情報処理端末1Aおよび情報処理サーバ2Aは、ネットワーク3を介して接続されている。
また、情報処理端末1Aは、端末通信部101と、入力部103と、表示部105と、撮像装置107と、ぼかし制御部109とを備え、情報処理サーバ2Aは、サーバ通信部201と、メッセージ取得部203と、関連情報取得部205と、制御部207とを備える。なお、ネットワーク3については、図1にて説明したとおりであるので、ここでの説明は省略する。
(情報処理端末の構成)
端末通信部101は、情報処理サーバ2Aとの通信を行う。具体的には、端末通信部101は、制御部207が生成した表示を情報処理サーバ2Aから受信し、入力部103に入力されたメッセージ、撮像装置107が撮像した画像を情報処理サーバ2Aに送信する。例えば、端末通信部101は、ネットワーク3に接続するための通信デバイス等で構成された通信インターフェースであってもよい。また、端末通信部101は、無線または有線により電話回線網に接続可能な通信装置であってもよく、有線LANまたは無線LAN対応通信装置であってもよいし、有線による通信を行うワイヤー通信装置であってもよい。
入力部103は、ユーザによりメッセージを入力することが可能な入力装置である。具体的には、入力部103は、キーボード、ボタン、およびマイクロフォンなどのユーザが文字情報を入力することが可能な入力機構と、ユーザの入力に基づいて入力信号を生成する入力制御回路などから構成される。また、入力部103は、ソフトウェアキーボードなどにより文字情報を入力することが可能な入力装置であってもよい。
表示部105は、情報処理端末1Aまたは情報処理サーバ2Aが生成した画像を表示する表示装置である。例えば、表示部105は、LCD(liquid crystal display)装置、OLED(organic light−emitting display)装置などであってもよい。
撮像装置107は、撮像レンズおよび撮像素子等を備え、被写体の画像を取得する。具体的には、撮像装置107は、CMOS(Complementary Metal−Oxide−Semiconductor)イメージセンサまたはCCD(Charge Coupled Device)イメージセンサなどで構成される撮像素子により、撮像レンズを介して入射する被写体からの光を光電変換し、画像信号に変換する。なお、撮像装置107は、情報処理端末1Aにおいて表示部105と同一面に備えられていてもよく、表示部105と異なる面に備えられていてもよい。また、撮像装置107は、情報処理端末1Aとは別の情報処理装置(例えば、メガネ型端末などのウェアラブル端末)に備えられ、情報処理端末1Aと通信を行うことにより、本開示に係る情報処理システムの機能を実行するものであってもよい。
なお、撮像装置107は、デフォーカス処理によって後述するぼかし処理を施すためには、ピント位置を像面位相差検出方式により検出する撮像装置であることが好ましい。ここで、像面位相差検出方式は、撮像レンズから入射した光を2つに分けて専用センサへ導き、結像した2つの像の間隔からジャストフォーカスからのピント位置の方向およびずれ量を判断するフォーカス検出方式である。また、像面位相差検出方式は、入射した光が導かれる専用センサが撮像素子と同一面(像面)にあることを特徴とする。このような像面位相差検出方式では、被写体に対するジャストフォーカスからのピント位置の方向およびずれ量を検出することができる。そのため、撮像装置107は、ジャストフォーカスからのピント位置のずれ量を適切に制御することにより、適切なぼかし量のデフォーカス処理を施した画像を取得することができる。また、像面位相差検出方式は、他のフォーカス検出方式(例えば、コントラスト検出方式)に対して、より高速でのピント位置検出が可能である。そのため、撮像装置107は、高い即時性にて画像を撮像することができる。
ここで、撮像装置107は、ユーザによってメッセージが入力され、該メッセージの送信が指示された時点で自動的に撮像を行い、画像を取得してもよい。この構成によれば、情報処理端末1Aは、ユーザに対して特別な操作を要求することなく自動的に撮像装置107にて撮像した画像を取得することができる。
また、撮像装置107は、ユーザによって所定の文字列が入力された時点で自動的に撮像を行い、画像を取得してもよい。この構成によれば、情報処理端末1Aは、ユーザに対してメッセージを入力しながら撮像装置107に撮像の指示を出すことを可能にする。なお、ユーザが撮像を指示するための所定の文字列は、一般的なメッセージにおいて出現頻度が低い文字列であることが好ましく、例えば、「##」、「@@@」などであってもよい。また、撮像を指示する所定の文字列は、撮像終了後、メッセージ入力欄から自動的に削除されることが好ましい。
さらに、撮像装置107は、ユーザから撮像を指示された時点で撮像を行い、画像を取得してもよい。この構成によれば、情報処理端末1Aは、ユーザに対して任意のタイミングで撮像することを可能にする。
ぼかし制御部109は、撮像装置107が撮像した画像に対して施されるぼかし処理を制御する。具体的には、ぼかし制御部109は、撮像装置107が撮像した画像に移りこんだ人のプライバシー保護のために、撮像された画像に対して視認性を低下させる画像処理を施す。例えば、ぼかし制御部109は、撮像装置107が撮像した画像に対して、低解像度化処理、低コントラスト化処理、または二値化処理などを施すことにより、視認性を低下させた画像を生成してもよい。なお、ぼかし制御部109が、撮像装置107によって撮像された画像に対して実行するぼかし処理は、画像の視認性を低下させる画像処理であれば、上記の処理に限定されず、公知の様々な画像処理であってもよい。
また、ぼかし制御部109は、撮像装置107に対してデフォーカス状態で撮像させることにより、撮像された画像に対してぼかし処理を施してもよい。具体的には、ぼかし制御部109は、撮像装置107の像面位相差検出方式によりジャストフォーカスからのピント位置のずれ量(デフォーカス量)が所定の量になるようにピント位置を調整し、デフォーカス状態にて撮像装置107に対して撮像させる。この構成によれば、ぼかし制御部109は、撮像された画像に対して画像処理をする必要がなくなるため、消費電力量を削減することができる。
なお、ぼかし制御部109によるぼかし処理の程度は、撮像された画像がぼけ過ぎず、鮮明過ぎず、ユーザがいる状況の雰囲気のみを伝えられる程度が好ましい。また、ぼかし制御部109によるぼかし処理の程度は、ユーザによって指定されたぼかし量であってもよい。
ここで、デフォーカス処理によるぼかし処理は、デフォーカス量が大きくなると急激に像の視認性が低下する。そのため、仮にデフォーカス量が大きすぎる場合、撮像装置107により得られた画像において、全く像が得られない可能性がある。したがって、撮像装置107は、ジャストフォーカスからのピント位置のずれ量および方向を検出可能であり、正確なピント位置の調整が可能な像面位相差検出方式のピント位置検出機能を備え、正確なピント位置調整を行うことが好ましい。なお、ぼかし制御部109が調整する撮像装置107のデフォーカス量は、ユーザによって指定されたぼかし量に対応するデフォーカス量であってもよいことは言うまでもない。
(情報処理サーバの構成)
サーバ通信部201は、情報処理端末1Aと通信を行う。具体的には、サーバ通信部201は、入力部103に入力されたメッセージ、撮像装置107が撮像した画像を情報処理端末1Aから受信し、制御部207が生成した表示を情報処理端末1Aに送信する。例えば、サーバ通信部201は、ネットワーク3に接続するための通信デバイス等で構成された通信インターフェースであってもよい。また、サーバ通信部201は、無線または有線により電話回線網に接続可能な通信装置であってもよく、有線LANまたは無線LAN対応通信装置であってもよいし、有線による通信を行うワイヤー通信装置であってもよい。
メッセージ取得部203は、それぞれの情報処理端末1Aにて入力されたメッセージを取得する。具体的には、メッセージ取得部203は、ネットワーク3を介して、それぞれの情報処理端末1Aにて入力されたメッセージを取得する。
関連情報取得部205は、それぞれの情報処理端末1Aにて取得されたユーザに関連した情報を取得する。具体的には、関連情報取得部205は、それぞれの情報処理端末1Aから、メッセージが入力された際に撮像された画像を取得する。すなわち、本開示の第1の実施形態において、ユーザに関連した情報とは、撮像装置107にて撮像された画像を意味する。
制御部207は、関連情報取得部205が取得したユーザに関連した情報に基づいて、取得したメッセージを伝達するための情報処理を制御する。具体的には、制御部207は、関連情報取得部205が取得した撮像画像と、メッセージ取得部203が取得したメッセージとを関連付けて配置した表示を生成する。より具体的には、制御部207は、関連情報取得部205が取得した撮像画像をメッセージ取得部203が取得したメッセージの背景として用いた表示を生成する。
また、制御部207は、撮像画像をメッセージの背景として用いた表示を生成する場合、関連情報取得部205が取得した撮像画像の色情報に基づいて、メッセージを表示する色を変更してもよい。例えば、メッセージを表示する色の明度と、背景に用いた画像の色の明度との差が小さく、背景に対してメッセージの文字色のコントラストが低い場合、メッセージが視認しづらい場合がある。このような場合、制御部207は、撮像画像の全体またはメッセージを表示する領域における色の平均明度を算出し、算出した平均明度と、メッセージを表示する文字色の明度との差が拡大するように、メッセージを表示する文字色を変更してもよい。
[2.2.情報処理システムの動作例]
続いて、図3A〜図5を参照して、本開示の第1の実施形態に係る情報処理システムの動作例について説明する。図3Aおよび3Bは、制御部207が生成する表示の一例を示した説明図であり、図4は、本開示の第1の実施形態に係る情報処理システムの動作例を示したフローチャート図である。また、図5は、図3Bの表示の変形例を示す説明図である。
以下では、図3Aおよび図3Bにて示す制御部207によって生成された表示を参照しながら、図4に示したフローチャートに沿って情報処理システムの動作を説明する。
図3Aに示した表示400には、第1のユーザによって送信された「今日どうする?」というメッセージ402が表示されている。これに対して、第2のユーザによりメッセージ入力欄404に「飯田橋に20時待ち合わせでいい?」というメッセージが入力される(S100)。続いて、第2のユーザにより送信ボタン405が押下された場合、撮像装置107は、画像を撮像する(S102)。次に、ぼかし制御部109は、撮像装置107により撮像された画像に対してぼかし処理を施す(S104)。
続いて、制御部207は、入力されたメッセージと、ぼかし処理が施された画像とが関連付けられて配置された表示を生成する(S104)。具体的には、制御部207は、図3Bに示した表示410を生成する。図3Bに示した表示410には、第2のユーザが入力した「飯田橋に20時待ち合わせでいい?」というメッセージ416が、第1のユーザによる「今日どうする?」というメッセージ412の下に表示されている。また、第2のユーザによるメッセージ416は、撮像装置107により撮像され、ぼかし処理が施された画像が背景に用いられている。
なお、S102において、撮像装置107が画像を撮像するタイミングは、上記に限定されず、撮像を指示するボタンが押下された時や、所定の文字列が入力された時であってもよい。
したがって、本開示の第1の実施形態に係る情報処理システムは、入力されたメッセージと関連付けて、該メッセージが入力された際に撮像された画像を表示することができる。そのため、本開示の第1の実施形態に係る情報処理システムによれば、撮像画像を用いて、メッセージが入力された際のユーザの状況をメッセージと併せて伝達することができる。
また、制御部207は、図5に示した表示410Aを生成してもよい。図4に示した表示410Aには、「飯田橋に20時待ち合わせでいい?」というメッセージ416Aが、「今日どうする?」というメッセージ412Aの下に表示されており、メッセージ416Aの文字色は、背景に用いた画像の色情報に基づいて変更されている。ここで、背景に用いた画像の色情報とは、例えば、背景に用いた画像全体の色の平均明度である。制御部207は、メッセージ416Aの文字色と、画像全体の色の平均明度との差が拡大するようにメッセージ416Aの文字色を制御することにより、メッセージ416Aの視認性を向上させることができる。
[2.3.情報処理システムの動作の変形例]
さらに、図6を参照して、本開示の第1の実施形態に係る情報処理システムの動作の変形例について説明する。図6は、本開示の第1の実施形態に係る情報処理システムの動作の変形例を示したフローチャート図である。かかる変形例は、情報処理端末1Aが備える撮像装置107が像面位相差検出方式によりピント位置を検出し、ぼかし制御部109がデフォーカス処理により撮像画像に対してぼかし処理を施す場合における情報処理システムの動作例である。
図6に示すように、まず、第2のユーザによりメッセージが入力される(S108)。次に、第2のユーザにより送信ボタン405が押下された場合、撮像装置107は、像面位相差検出方式により撮像対象との位相差を検出し、ピント位置を検出する(S110)。続いて、ぼかし制御部109は、ジャストフォーカス位置から所定の量だけデフォーカスするように撮像装置107のピント位置を調整する(S112)。その後、撮像装置107は、デフォーカス状態で画像を撮像する(S114)。続いて、制御部207は、入力されたメッセージと、デフォーカスによりぼかし処理が施された画像とを関連付けて配置した表示を生成する(S116)。
この変形例の動作によれば、本開示の第1の実施形態に係る情報処理システムは、画像処理を用いずに撮像装置107によって撮像された画像に対してぼかし処理を施すことができる。そのため、本開示の第1の実施形態に係る情報処理システムは、画像処理にかかる電力消費を削減することができる。
以上説明したように、本開示の第1の実施形態に係る情報処理システムは、ユーザによりメッセージが入力された際に撮像装置107により撮像された画像を入力されたメッセージと関連付けて配置した表示を生成することができる。そのため、メッセージを入力したユーザは、撮像画像により、メッセージを入力した際の周囲の様子をメッセージと併せて伝達することができる。
<3.第2の実施形態>
次に、図7〜図9を参照して、本開示の第2の実施形態に係る情報処理システムについて説明する。本開示の第2の実施形態に係る情報処理システムは、各種センサを有する情報処理端末1Bを備え、入力されたメッセージと、各種センサからのユーザに関連した情報に基づいた画像とを関連付けて配置した表示を生成する。これにより、本開示の第2の実施形態に係る情報処理システムは、メッセージが入力された際のユーザの状況をメッセージと併せて伝達することができる。
具体的には、情報処理システムは、ユーザがメッセージを入力、送信する際の所定の入力操作に基づいて、各種センサを用いて、ユーザに関連した情報を取得する。また、情報処理システムは、取得したユーザに関連した情報からユーザの状態を判断し、該ユーザの状態に対応した画像を取得する。さらに、情報処理システムは、入力されたメッセージと、該ユーザの状態に対応した画像とを関連付けて配置した表示を生成し、情報処理端末1Bに送信する。この情報処理システムによれば、メッセージを送信するユーザは、メッセージと併せて、メッセージを入力した際の自身の状態を多様な形態にて伝達することができる。
[3.1.情報処理システムの構成例]
まず、図7を参照して、本開示の第2の実施形態に係る情報処理システムの具体的な構成について説明する。図7は、本開示の第2の実施形態に係る情報処理システムの内部構成を示したブロック図である。
図7に示すように、本開示の第2の実施形態に係る情報処理システムは、情報処理端末1Bと、情報処理サーバ2Bとを備える。また、情報処理端末1Bおよび情報処理サーバ2Bは、ネットワーク3を介して接続されている。なお、ネットワーク3については、図1にて説明したとおりであるので、ここでの説明は省略する。
また、情報処理端末1Bは、端末通信部111と、入力部113と、表示部115と、センサ部117とを備え、情報処理サーバ2Bは、サーバ通信部211と、メッセージ取得部213と、関連情報取得部215と、制御部217と、画像記憶部219とを備える
(情報処理端末の構成)
端末通信部111、入力部113、および表示部115については、第1の実施形態にて説明した端末通信部101、入力部103、および表示部105と同様であるので、ここでの説明は省略する。
センサ部117は、各種センサを備え、ユーザに関連した情報を取得する。例えば、センサ部117は、GPS(Global Positioning System)センサなどのユーザの位置情報を取得するセンサであってもよく、照度センサ、温度センサ、近接センサなどのユーザの周囲の環境に関する情報を取得するセンサであってもよい。また、各種センサは、心拍数センサ、血圧センサ等のユーザの身体に関する情報を取得するセンサであってもよい。さらに、センサ部117は、撮像装置を含んでもよい。
具体的には、センサ部117は、GPSセンサを備え、該GPSセンサによりユーザの位置情報を取得してもよい。また、センサ部117は、ネットワーク3との通信に用いられた基地局またはアクセスポイントの位置情報を取得するセンサを備えてもよく、該センサによりユーザの位置情報を取得してもよい。
また、例えば、センサ部117は、照度センサを備え、該照度センサによりユーザがいる環境の照度情報を取得してもよい。また、センサ部117は、温度センサを備え、該温度センサにより、ユーザがいる環境の温度情報を取得してもよい。さらに、センサ部117は、奥行きセンサ、近接センサ等を備え、該センサによりユーザの周囲の構造物に関する情報を取得してもよい。この構成によれば、ユーザがいる環境の照度情報、温度情報、および周囲の構造物に関する情報などを参照することにより、後述する制御部217は、ユーザがいる場所が屋内なのか、屋外なのか、地下なのか、地上なのかなど、位置情報からは判別できない詳細なユーザの環境について判断することが可能になる。
さらに、例えば、センサ部117は、心拍数センサ、血圧センサなどを備え、該センサによりユーザの身体に関する情報を取得してもよい。この構成によれば、ユーザの身体に関する情報を参照することにより、後述する制御部217は、ユーザが運動しているのか、走っているのか、座っているのかなど、ユーザの活動状況について判断することが可能になる。
なお、センサ部117は、上述した各種センサに限定されない。センサ部117は、公知の多様なセンサを備え、備えた多様なセンサにより多様な情報を取得してもよい。また、センサ部117は、情報処理端末1Bとは別の情報処理装置(例えば、メガネ型端末などのウェアラブル端末)に備えられていており、情報処理端末1Bと通信を行うことにより、本開示に係る情報処理システムの機能を実行するものであってもよい。
ここで、センサ部117がユーザに関連した情報を取得するタイミングは、第1の実施形態において撮像装置107が画像を取得するタイミングと同様であってもよい。具体的には、センサ部117は、ユーザによって入力されたメッセージの送信が指示された時に情報を取得してもよく、ユーザによって所定の文字列が入力された時に情報を取得してもよい。また、センサ部117は、ユーザから情報取得を指示された時に情報を取得してもよい。
(情報処理サーバの構成)
サーバ通信部211、およびメッセージ取得部213については、第1の実施形態にて説明したサーバ通信部201、およびメッセージ取得部203と同様であるので、ここでの説明は省略する。
関連情報取得部215は、それぞれの情報処理端末1Bにて取得されたユーザに関連した情報を取得する。具体的には、関連情報取得部215は、それぞれの情報処理端末1Bにてメッセージが入力された際に、センサ部117により取得されたユーザに関連する各種情報を取得する。すなわち、本開示の第2の実施形態において、ユーザに関連した情報とは、センサ部117により取得されたユーザに関連した各種情報を意味する。
制御部217は、関連情報取得部215が取得したユーザに関連した情報に基づいて、取得したメッセージを伝達するための情報処理を制御する。具体的には、制御部217は、関連情報取得部215が取得したユーザに関連した情報に基づいてユーザの状態を判断し、該ユーザの状態に対応した画像と、メッセージ取得部213が取得したメッセージとを関連付けて配置した表示を生成する。より具体的には、制御部217は、ユーザの状態に対応した画像をメッセージ取得部213が取得したメッセージの背景として用いた表示を生成する。
例えば、制御部217は、取得されたユーザの位置情報からユーザがいる場所を判断し、ユーザがいる場所に対応した画像をメッセージと関連付けて配置した表示を生成してもよい。また、制御部217は、所定の時間範囲におけるユーザの位置情報の変化からユーザの平均移動速度を算出し、ユーザの移動速度に対応した速度を表す画像をメッセージと関連付けて配置した表示を生成してもよい。また、制御部217は、ユーザがいる環境の照度情報、温度情報、および周囲の構造物に関する情報など(すなわち、ユーザの周囲の環境に関する情報)からユーザがいる場所を判断し、ユーザがいる場所に対応した画像をメッセージと関連付けて配置した表示を生成してもよい。さらに、制御部217は、ユーザの身体に関する情報からユーザの活動状況を判断し、ユーザの活動状況(すなわち、運動している、座っているなど)に対応した画像をメッセージと関連付けて配置した表示を生成してもよい。
また、制御部217は、さらにメッセージ取得部213が取得したメッセージに含まれる語句に基づいて、ユーザがいる位置、ユーザの活動状況などを判断してもよい。例えば、メッセージ取得部213が取得したメッセージに「図書館」などの建物を表す名詞、「飯田橋」などの地名を表す固有名詞が含まれる場合、制御部217は、これらの名詞が表す場所をユーザがいる位置と判断してもよい。
さらに、制御部217は、判断したユーザの状態に対応した語句がメッセージ取得部213により取得されたメッセージに含まれる場合、該ユーザの状態に対応した語句を強調した表示を生成してもよい。例えば、制御部217が位置情報からユーザのいる場所を「図書館」であると判断し、かつメッセージ取得部213により取得されたメッセージに「図書館」の語句が含まれる場合、制御部217は、「図書館」の語句を強調した表示を生成してもよい。
なお、制御部217は、第1の実施形態と同様に、ユーザの状態に対応した画像をメッセージの背景として用いた表示を生成する場合、ユーザの状態に対応した画像の色情報に基づいて、メッセージを表示する文字色を変更してもよい。
画像記憶部219は、制御部217メッセージと関連付けて配置するユーザの状態に対応した画像を記憶する。なお、図7に示す例では、画像記憶部219は、情報処理サーバ2Bに備えられるとしたが、本開示の技術はかかる例示に限定されない。例えば、画像記憶部219は、ネットワーク3に接続された他の情報処理装置が備えていてもよい。また、制御部217は、ネットワーク3に接続されたあらゆる記憶装置から検索して、ユーザの状態に対応した画像を取得してもよい。
[3.2.情報処理システムの動作例]
続いて、図8A〜図9を参照して、本開示の第2の実施形態に係る情報処理システムの動作例について説明する。図8Aおよび8Bは、制御部217が生成する表示の一例を示した説明図であり、図9は、本開示の第2の実施形態に係る情報処理システムの動作例を示したフローチャート図である。
以下では、図8Aおよび図8Bにて示す制御部217によって生成された表示を参照しながら、図9に示したフローチャートに沿って情報処理システムの動作を説明する。
図8Aに示した表示420には、第1のユーザによって送信された「今日どうする?」というメッセージ422が表示され、第2のユーザによって送信された「飯田橋に20時待ち合わせでいい?」というメッセージ426が表示されている。これに対して、第1のユーザによりメッセージ入力欄424に「いいよ。今、図書館。」というメッセージが入力される(S200)。続いて、第1のユーザにより送信ボタン425が押下された場合、センサ部117は、ユーザに関連した情報を取得する(S202)。次に、制御部217は、ユーザに関連した情報からユーザの状態を判断し(S204)、判断されたユーザの状態に対応した画像を画像記憶部219から取得する(S206)。
続いて、制御部217は、入力されたメッセージと、取得したユーザの状態に対応した画像とが関連付けられて配置された表示を生成する(S208)。具体的には、制御部217は、図8Bに示した表示430を生成する。図8Bに示した表示430には、第1のユーザが入力した「いいよ。今、図書館。」というメッセージ438が、第2のユーザによる「飯田橋に20時待ち合わせでいい?」というメッセージ426の下に表示されている。また、第1のユーザが入力した「いいよ。今、図書館。」というメッセージ438において、第1のユーザがいる場所に対応した図書館の画像が背景として用いられている。なお、制御部217は、「いいよ。今、図書館。」というメッセージ438において、「図書館」を強調するように文字の表示を変更してもよい。
なお、S202において、センサ部117がユーザに関連した情報を取得するタイミングは、第1の実施形態と同様に上記に限定されず、情報取得を指示するボタンが押下された時や、所定の文字列が入力された時であってもよい。
以上説明したように、本開示の第2の実施形態に係る情報処理システムは、入力されたメッセージと関連付けて、該メッセージが入力された際に取得した情報から判断したユーザの状態に対応する画像を表示することができる。そのため、本開示の第2の実施形態に係る情報処理システムによれば、メッセージが入力された際のユーザの状況を、ユーザの状態に対応する画像によってメッセージと併せて伝達することができる。
<4.第3の実施形態>
続いて、図10〜図12を参照して、本開示の第3の実施形態に係る情報処理システムについて説明する。本開示の第3の実施形態に係る情報処理システムは、位置センサを有する情報処理端末1Cを備え、入力されたメッセージと、位置センサにより取得された各ユーザの位置情報から判断したユーザ間の距離とを関連付けて配置した表示を生成する。これにより、本開示の第3の実施形態に係る情報処理システムは、メッセージが入力された際のユーザ間の距離をメッセージと併せて伝達することができる。
具体的には、情報処理システムは、ユーザがメッセージを入力、送信する際の所定の入力操作に基づいて、位置センサによりユーザの位置情報を取得する。また、情報処理システムは、各ユーザの位置情報からユーザ間の距離を算出し、入力されたメッセージと、算出したユーザ間の距離とを関連付けて配置した表示を生成し、情報処理端末1Cに送信する。この情報処理システムによれば、ユーザは、メッセージと併せて、メッセージが入力された際の互いの距離を伝達することができる。
また、本開示の第3の実施形態に係る情報処理システムは、位置センサにより取得したユーザの位置情報に基づいてユーザ同士が集合する際に適切な場所を判断し、適切であると判断した場所を複数カ所、集合場所の候補地として表示してもよい。これによれば、本開示の第3の実施形態に係る情報処理システムは、ユーザに対して集合場所に適した場所を提案することができる。
[4.1.情報処理システムの構成例]
まず、図10を参照して、本開示の第3の実施形態に係る情報処理システムの具体的な構成について説明する。図10は、本開示の第3の実施形態に係る情報処理システムの内部構成を示したブロック図である。
図10に示すように、本開示の第3の実施形態に係る情報処理システムは、情報処理端末1Cと、情報処理サーバ2Cとを備える。また、情報処理端末1Cおよび情報処理サーバ2Cは、ネットワーク3を介して接続されている。なお、ネットワーク3については、図1にて説明したとおりであるので、ここでの説明は省略する。
また、情報処理端末1Cは、端末通信部121と、入力部123と、表示部125と、位置センサ127とを備え、情報処理サーバ2Cは、サーバ通信部221と、メッセージ取得部223と、関連情報取得部225と、制御部227と、候補地記憶部229とを備える。
(情報処理端末の構成)
端末通信部121、入力部123、および表示部125については、第1の実施形態にて説明した端末通信部101、入力部103、および表示部105と同様であるので、ここでの説明は省略する。
位置センサ127は、ユーザの位置情報を取得するセンサである。具体的には、位置センサ127は、GPSによりユーザの位置情報を取得するGPSセンサであってもよい。また、位置センサ127は、ネットワーク3との通信に用いられた基地局またはアクセスポイントの位置情報を取得するセンサであってもよく、基地局またはアクセスポイントの位置からユーザの位置情報を判断してもよい。
また、位置センサ127は、情報処理端末1Cとは別の情報処理装置(例えば、メガネ型端末などのウェアラブル端末)に備えられ、情報処理端末1Cと通信を行うことにより、本開示に係る情報処理システムの機能を実行するものであってもよい。
ここで、位置センサ127がユーザの位置情報を取得するタイミングは、第1の実施形態において撮像装置107が画像を取得するタイミングと同様であってもよい。具体的には、位置センサ127は、ユーザによって入力されたメッセージの送信が指示された時に位置情報を取得してもよく、ユーザによって所定の文字列が入力された時に位置情報を取得してもよい。また、位置センサ127は、ユーザから情報取得を指示された時に位置情報を取得してもよい。
(情報処理サーバの構成)
サーバ通信部221、およびメッセージ取得部223については、第1の実施形態にて説明したサーバ通信部201、およびメッセージ取得部203と同様であるので、ここでの説明は省略する。
関連情報取得部225は、それぞれの情報処理端末1Cにて取得されたユーザに関連した情報を取得する。具体的には、関連情報取得部225は、それぞれの情報処理端末1Cにてメッセージが入力された際に、位置センサ127により取得されたユーザの位置情報を取得する。すなわち、本開示の第2の実施形態において、ユーザに関連した情報とは、位置センサ127により取得されたユーザの位置情報を意味する。
制御部227は、関連情報取得部225が取得したユーザに関連した情報に基づいて、取得したメッセージを伝達するための情報処理を制御する。具体的には、制御部227は、関連情報取得部225が取得した各ユーザの位置情報に基づいてユーザ間の距離を算出し、該ユーザ間の距離情報と、メッセージ取得部223が取得したメッセージとを関連付けて配置した表示を生成する。
また、制御部227は、各ユーザの位置情報に基づいてユーザが集合する際に適切な場所を判断し、適切であると判断した場所を複数カ所、集合場所の候補地として示す表示を生成してもよい。例えば、制御部227は、各ユーザの位置の中間点に相当する場所を適切な集合場所であると判断し、集合場所の候補地として示す表示を生成してもよい。また、制御部227は、いずれかのユーザがいる場所を適切な集合場所であると判断し、集合場所の候補地として示す表示を生成してもよい。さらに、制御部227は、交通手段(例えば、鉄道、バスなどの公共交通網、道路等の交通経路など)を考慮し、いずれのユーザも容易に到達可能な場所を適切な集合場所であると判断し、集合場所の候補地として示す表示を生成してもよい。
さらに、制御部227は、集合場所となり得る場所に対して、あらかじめ優先度を設定して候補地記憶部229に記憶させておき、該優先度に基づいて、ユーザが集合する際に適切な場所を判断してもよい。具体的には、制御部227は、高い優先度が設定された場所を優先的に、集合に適切な場所であると判断し、集合場所の候補地として示す表示を生成してもよい。また、制御部227は、集合場所の候補地を複数表示する場合、高い優先度が設定された場所を強調する表示を生成してもよく、高い優先度が設定された場所を先頭などの目立つ位置に配置した表示を生成してもよい。この構成によれば、制御部227は、ユーザを誘導したい集合場所を優先的に提案する表示を生成することができる。
なお、集合場所となり得る場所に設定される優先度は、例えば、広告料を支払っている店舗等が高くなるように設定されてもよい。また、優先度は、例えば、知名度が高く目印になりやすい建造物が高くなるように設定されていてもよく、公共交通が集中する主要な駅等が高くなるように設定されていてもよい。
候補地記憶部229は、集合場所の候補地を記憶する。制御部227は、候補地記憶部229に記憶された集合場所の候補地の中から、各ユーザの位置情報に基づいてユーザが集合する際に適切な場所を判断する。また、候補地記憶部229は、集合場所の候補地それぞれについて、上述した優先度を記憶してもよい。
[4.2.情報処理システムの動作例]
次に、図11A〜図12を参照して、本開示の第3の実施形態に係る情報処理システムの動作例について説明する。図11A〜11Cは、制御部227が生成する表示の一例を示した説明図であり、図12は、本開示の第3の実施形態に係る情報処理システムの動作例を示したフローチャート図である。
以下では、図11A〜11Cにて示す制御部227によって生成された表示を参照しながら、図12に示したフローチャートに沿って情報処理システムの動作を説明する。
図11Aに示した表示440には、第1のユーザによって送信された「東海道線が遅れている。。」というメッセージ442が表示され、第2のユーザによって送信された「車で迎えに行くよ!」というメッセージ446が表示されている。これに対して、第1のユーザによりメッセージ入力欄444に「待ち合わせはどこにする?」というメッセージが入力される(S300)。続いて、第1のユーザにより送信ボタン445が押下された場合、位置センサ127は、ユーザの位置情報を取得する(S302)。
次に、制御部227は、各ユーザの位置情報からユーザ間の距離を算出し(S304)、入力されたメッセージと、算出したユーザ間の距離情報とが関連付けられて配置された表示を生成する(S306)。具体的には、制御部227は、図11Bに示した表示450を生成する。図11Bに示した表示430には、第1のユーザが入力した「待ち合わせはどこにする?」というメッセージ458が、第2のユーザによる「車で迎えに行くよ!」というメッセージ456の下に表示されている。また、第1のユーザが入力した「待ち合わせはどこにする?」というメッセージ458の下には、制御部227が算出した第1のユーザと第2のユーザとの距離である「距離:7km」の距離表示459が表示されている。
なお、S302において、位置センサ127がユーザの位置情報を取得するタイミングは、第1の実施形態と同様に上記に限定されず、位置情報の取得を指示するボタンが押下された時や、所定の文字列が入力された時であってもよい。
続いて、制御部227は、第1のユーザおよび第2のユーザの位置情報に基づいて、候補地記憶部229に記憶された集合場所となり得る場所から、第1のユーザおよび第2のユーザが集合する際に適切な場所を判断する(S308)。
次に、制御部227は、集合場所として適切であると判断した場所を複数カ所、集合場所の候補地として示す表示を生成する(S310)。具体的には、制御部227は、図11Cに示した表示460を生成する。図11Cに示した表示460には、第1のユーザおよび第2のユーザの集合場所の候補地として、「カフェ新橋店」、「銀座ソニービル」、「東京駅」の3カ所が示されており、また、取得したユーザの位置情報が示す位置からの距離も併せて示されている。このうち、「カフェ新橋店」、「東京駅」はいずれかのユーザのいる場所であるため、集合場所として適切な場所であると制御部227に判断されている。また、「銀座ソニービル」は、それぞれのユーザがいる位置の中間点であるため、集合場所として適切な場所であると制御部227に判断されている。なお、制御部227は、集合場所の候補地の優先度に基づいて、「カフェ新橋店」、「銀座ソニービル」、「東京駅」の集合場所の候補地を示す表示の順序等を制御してもよい。
以上説明したように、本開示の第3の実施形態に係る情報処理システムは、入力されたメッセージと関連付けて、該メッセージが入力された際に取得したユーザの位置情報から算出したユーザ間の距離情報を表示することができる。そのため、本開示の第3の実施形態に係る情報処理システムによれば、ユーザは、メッセージが入力された際のユーザ間の位置関係をメッセージと併せて伝達することができる。
また、本開示の第3の実施形態に係る情報処理システムによれば、位置センサにより取得したユーザの位置情報に基づいて、ユーザ同士が集合する際に適切な場所を判断し、ユーザに対して集合場所の候補地を提案することもできる。
<5.第4の実施形態>
次に、図13および14を参照して、本開示の第4の実施形態に係る情報処理システムについて説明する。本開示の第4の実施形態に係る情報処理システムは、複数のセンサを有する情報処理端末を備え、メッセージの入力、送信の際に取得される情報をユーザによって選択することが可能な情報処理システムである。
具体的には、情報処理システムは、ユーザがメッセージを入力、送信する際に、いかなる情報を取得し、送信するのかをユーザに選択させる。また、情報処理システムは、ユーザによって選択された情報を取得し、入力されたメッセージと、該情報とを関連付けて配置した表示を生成し、情報処理端末に送信する。この情報処理システムによれば、ユーザは、メッセージと併せて、任意の情報によりメッセージが入力された際の自身の状態を伝達することができる。
なお、第4の実施形態に係る情報処理システムの具体的な構成については、第1〜第3の実施形態に係る情報処理システム、またはその組み合わせと同様であるので、ここでの説明は省略する。
[5.1.情報処理システムの動作例]
続いて、図13および14を参照して、第4の実施形態に係る情報処理システムの動作例について説明する。図13は、第4の実施形態に係る情報処理システムが生成する表示の一例を示した説明図であり、図14は、本開示の第4の実施形態に係る情報処理システムの動作例を示したフローチャート図である。
以下では、図13にて示す情報処理システムによって生成された表示を参照しながら、図14に示したフローチャートに沿って情報処理システムの動作を説明する。
図13に示した表示470には、第1のユーザによって送信された「今日はどうする?」というメッセージ472が表示されている。これに対して、第2のユーザによりメッセージ入力欄474に「飯田橋に20時待ち合わせでいい?」というメッセージが入力される(S400)。続いて、第2のユーザにより送信ボタン475が押下された場合、情報処理システムは、取得する情報の選択表示473を生成する。ここで、選択表示473に対する第2のユーザの入力操作によって、メッセージと併せて送信する情報が選択され(S402)、情報処理システムは、ユーザにより選択されたユーザに関連した情報を取得する(S404)。さらに、情報処理システムは、取得したユーザに関連した情報と、入力されたメッセージとを関連付けて配置された表示を生成し、情報処理端末に表示させる。
例えば、図13に示す選択表示473において、「メインカメラ」または「フロントカメラ」が選択された場合、情報処理システムは、第1の実施形態に係る情報処理システムの動作を実行してもよい。なお、「メインカメラ」とは、例えば、情報処理端末1Aにおいて表示部105と異なる面側に備えられた撮像装置107であり、「フロントカメラ」とは、情報処理端末1Aにおいて表示部105と同一面側に備えられた撮像装置107である。
また、図13に示す選択表示473において、「照度」、「温度」、「現在位置」、または「心拍数」が選択された場合、情報処理システムは、第2の実施形態に係る情報処理システムの動作を実行してもよい。
さらに、図13に示す選択表示473において、「距離」が選択された場合、情報処理システムは、第3の実施形態に係る情報処理システムの動作を実行してもよい。
加えて、図13に示す選択表示473において、「オート」が選択された場合、情報処理システムは、ユーザに関連した情報のうち無作為に選択した情報を取得し、メッセージと併せて送信してもよい。
以上説明したように、本開示の第4の実施形態に係る情報処理システムは、ユーザがメッセージを入力、送信する際に、ユーザに関連した情報のうち、いずれの情報を取得し、送信するのかをユーザが選択することができる。そのため、本開示の第4の実施形態に係る情報処理システムによれば、ユーザは状況に応じて自身の状況を伝達するために適切な情報を選択し、メッセージと併せて伝達することができる。
<6.第5の実施形態>
次に、図15〜図18を参照して、本開示の第5の実施形態に係る情報処理システムについて説明する。
まず、図15を参照して、本開示の第5の実施形態に係る情報処理システムの概略について説明する。図15は、本開示の第5の実施形態に係る情報処理システムの概略を示した説明図である。
図15に示すように、本開示の第5の実施形態に係る情報処理システムは、撮像装置を有する情報処理端末1Dを備え、該撮像装置によりユーザ5の特徴動作に関する情報を取得する。具体的には、本開示の第5の実施形態に係る情報処理システムは、ユーザ5がメッセージを入力、送信する際の特徴動作を撮像装置により検出し、ユーザ5が所定の特徴動作を行ったか否かに基づいて、入力されたメッセージを伝達するための情報処理を制御するものである。
ここで、ユーザの特徴動作とは、例えば、ユーザの表情、動作などである。情報処理システムは、例えば、ユーザ5が笑顔か否か、ユーザ5が悲しみの表情か否か、ユーザ5が怒りの表情か否か等のユーザ5の表情に基づいて、入力されたメッセージを伝達するための情報処理を制御してもよい。また、情報処理システムは、ユーザ5が所定の動作(例えば、ピースサインなど)をしているか否かに基づいて、入力されたメッセージを伝達するための情報処理を制御してもよい。
このような情報処理システムは、撮像装置により、メッセージを入力、送信する際のユーザの気分や感情が反映された特徴動作を認識することができるため、認識した特徴動作に基づいてメッセージを伝達するための情報処理を制御することができる。そのため、本開示の第5の実施形態に係る情報処理システムは、メッセージを入力、送信する際のユーザの気分や感情をより反映させてメッセージを伝達することができる。
[6.1.情報処理システムの構成例]
まず、図16を参照して、本開示の第5の実施形態に係る情報処理システムの具体的な構成について説明する。図16は、本開示の第5の実施形態に係る情報処理システムの内部構成を示したブロック図である。
図16に示すように、本開示の第5の実施形態に係る情報処理システムは、情報処理端末1Dと、情報処理サーバ2Dとを備える。また、情報処理端末1Dおよび情報処理サーバ2Dは、ネットワーク3を介して接続されている。なお、ネットワーク3については、図1にて説明したとおりであるので、ここでの説明は省略する。
また、情報処理端末1Dは、端末通信部131と、入力部133と、表示部135と、撮像装置137と、特徴検出部139とを備え、情報処理サーバ2Dは、サーバ通信部231と、メッセージ取得部233と、関連情報取得部235と、制御部237と、特徴ポイント記憶部239とを備える。
(情報処理端末の構成)
端末通信部131、入力部133、および表示部135については、第1の実施形態にて説明した端末通信部101、入力部103、および表示部105と同様であるので、ここでの説明は省略する。
撮像装置137は、撮像レンズおよび撮像素子等を備え、被写体の画像を取得する。具体的には、撮像装置137は、CMOSイメージセンサまたはCCDイメージセンサなどで構成される撮像素子により、撮像レンズを介して入射する被写体からの光を光電変換し、画像信号に変換する。なお、撮像装置137は、メッセージを入力するユーザの特徴動作を検出するための画像を取得することができるように、情報処理端末1Dにおいて表示部135と同一面側に備えられることが好ましい。
特徴検出部139は、撮像装置137が取得したユーザの画像に基づいて、ユーザが特徴動作をしているか否かを検出する。具体的には、特徴検出部139は、撮像装置137が取得したユーザの画像と、あらかじめ設定された表情または動作などの特徴動作とを照らし合わせ、ユーザが特徴動作をしているか否かを判断する。
また、特徴検出部139は、ユーザが特徴動作をしていると判断した場合に、さらにユーザがしている特徴動作の程度または回数を評価してもよい。具体的には、特徴検出部139は、検出した特徴動作が笑顔等の表情である場合、ユーザの笑顔がどの程度の喜びを表しているかを評価してもよい。また、特徴検出部139は、検出した特徴動作が動作等である場合、ユーザが実行している動作があらかじめ設定された動作とどの程度一致しているかを評価してもよい。さらに、特徴検出部139は、検出した特徴動作が所定の特徴動作と一致した回数を評価してもよい。なお、特徴検出部139は、上記の特徴動作の程度を、例えば、100点を満点とする数値にて評価してもよいし、複数の段階を有するランク分けにて評価してもよい。
なお、特徴検出部139は、図16では、情報処理端末1Dに備えられているとして説明したが、本開示に係る技術は、上記に限定されない。例えば、特徴検出部139は、情報処理サーバ2Dに備えられてもよい。
ここで、特徴検出部139は、撮像装置137により取得されたユーザの画像からユーザが特徴動作をしているか否かを常時、判断していてもよい。また、特徴検出部139は、メッセージングシステムが実行されている間のみ、撮像装置137によりユーザの画像を取得し、ユーザが特徴動作をしているか否かを判断してもよい。さらに、特徴検出部139は、ユーザがメッセージを入力している間のみ、撮像装置137によりユーザの画像を取得し、ユーザが特徴動作をしているか否かを判断してもよい。ただし、特徴動作の誤検出を防ぐため、および情報処理にて消費する電力を削減するために、特徴検出部139は、ユーザがメッセージを入力している間のみ、撮像装置137によりユーザの画像を取得し、ユーザが特徴動作をしているか否かを判断することが好ましい。
(情報処理サーバの構成)
サーバ通信部231、およびメッセージ取得部233については、第1の実施形態にて説明したサーバ通信部231、およびメッセージ取得部233と同様であるので、ここでの説明は省略する。
関連情報取得部235は、情報処理端末1Dにて取得されたユーザに関連した情報を取得する。具体的には、関連情報取得部225は、情報処理端末1Dにてメッセージが入力、送信された際のユーザの特徴動作に関する情報を取得する。すなわち、本開示の第5の実施形態において、ユーザに関連した情報とは、特徴検出部139により検出されたユーザが特徴動作をしている否かを示す情報を意味する。また、上記のユーザに関連した情報は、ユーザがしている特徴動作の評価結果をさらに含んでもよい。
制御部237は、関連情報取得部235が取得したユーザの特徴動作に関する情報に基づいて、メッセージを伝達するための情報処理を制御する。具体的には、制御部237は、ユーザが所定の特徴動作をしている場合、特定の操作を入力することが可能なボタン等の表示を新たに生成してもよい。また、制御部237は、ユーザが所定の特徴動作をしている場合、表示されている画像を別の画像を変更した表示を生成してもよい。
より具体的には、制御部237は、ユーザが笑顔であることを検出した場合、笑顔であることを示す情報をメッセージと併せて送信することを指示する「smile送信ボタン」の表示を生成してもよい。なお、「smile送信ボタン」の表示は、メッセージのみを送信することを指示する「通常送信ボタン」の表示の替わりに生成されてもよく、「通常送信ボタン」の表示と並行して生成されてもよい。また、制御部237は、ユーザが笑顔であることを検出している間のみ「smile送信ボタン」の表示を生成してもよく、ユーザが笑顔であることを検出してからメッセージが送信されるまでの間、「smile送信ボタン」の表示を生成してもよい。
また、ユーザにより「smile送信ボタン」を用いてメッセージが送信された場合、制御部237は、メッセージを送信したユーザを表す表示(すなわち、ユーザを表すアイコン)を「smile送信」専用の他の表示に変更してもよい。例えば、制御部237は、「smile送信ボタン」を用いてメッセージが送信された場合、メッセージを送信したユーザを表す表示(アイコン)を該ユーザの笑顔の画像に変更してもよい。
さらに、ユーザにより「smile送信ボタン」を用いてメッセージが送信された場合、制御部237は、送信されたメッセージを含む表示の全体の背景を「smile送信」専用の背景に変更してもよい。また、ユーザにより「smile送信ボタン」を用いてメッセージが送信された場合、制御部237は、送信されたメッセージの背景を「smile送信」専用の背景に変更してもよい。
また、制御部237は、ユーザが所定の特徴動作をしているか否かに基づいて、ユーザが使用可能な機能を制御してもよい。具体的には、制御部237は、ユーザが所定の特徴動作をしていることを検出した場合に、ユーザに対して所定の機能を使用可能にしてもよい。また、逆に、制御部237は、ユーザが所定の特徴動作をしていることを検出した場合に、ユーザに対して所定の機能を使用不可にしてもよい。より具体的には、制御部237は、ユーザが笑顔であることを検出した場合に、ユーザに対して動画添付機能などを使用可能にしてもよい。また、制御部237は、ユーザが怒りの表情であることを検出した場合に、ユーザに対してメッセージ送信機能などを使用不可にしてもよい。
ここで、制御部237は、ユーザの特徴動作に対する程度または回数の評価結果をユーザと紐付け、該ユーザに紐付けられた評価結果が所定の条件を満たす場合に、メッセージを伝達するための情報処理を変更してもよい。なお、制御部237がユーザの特徴動作に対する程度の評価結果を紐付けるユーザは、メッセージが送信されたユーザ(すなわち、特徴動作をしたユーザとコミュニケーションしているユーザ)である。ただし、制御部237は、メッセージを送信したユーザ(すなわち、特徴動作をしたユーザ)に対して、ユーザの特徴動作に対する評価結果を紐付けてもよい。
例えば、ユーザの特徴動作に対する程度または回数が数値にて評価されている場合、制御部237は、メッセージが送信されたユーザに対して、該評価結果の数値をポイントとして付与してもよい。また、制御部237は、ユーザに付与されたポイントの累積値が閾値を超えた場合、該ユーザに対して新たなサービスや新たなコンテンツを提供してもよい。さらに、制御部237は、ユーザに付与されたポイントの累計値から所定の値を差し引くことと引き換えに、該ユーザに対して新たなサービスや新たなコンテンツを提供してもよい。
特徴ポイント記憶部239は、ユーザの特徴動作に対する程度または回数の評価結果と、ユーザとの紐付け関係を記憶する。具体的には、特徴ポイント記憶部239は、ユーザの特徴動作に対する評価結果と、メッセージが送信されたユーザ(すなわち、特徴動作をしたユーザとコミュニケーションしているユーザ)とを紐付けて記憶する。例えば、特徴ポイント記憶部239は、ユーザの特徴動作に対する評価が数値にて表現される場合、メッセージが伝達されたユーザに対して紐付けられた該評価結果の数値を付与されたポイントとして記憶する。また、特徴ポイント記憶部239は、ユーザに付与されたポイントを積算し、ユーザごとに付与されたポイントの累計値を記憶してもよい。
[6.2.情報処理システムの動作例]
次に、図17A〜図18を参照して、本開示の第5の実施形態に係る情報処理システムの動作例について説明する。図17Aおよび図17Bは、制御部237が生成する表示の一例を示した説明図であり、図18は、本開示の第5の実施形態に係る情報処理システムの動作例を示したフローチャート図である。
以下では、図17Aおよび17Bにて示す制御部227によって生成された表示を参照しながら、図18に示したフローチャートに沿って情報処理システムの動作を説明する。なお、図17A〜図18で示す本開示の第5の実施形態に係る情報処理システムの動作例は、ユーザの笑顔を検出し、ユーザが笑顔である場合にメッセージを伝達する情報処理を変更する動作例である。
図17Aに示した表示480には、第1のユーザによって送信された「今日どうする?」というメッセージ482が表示され、第2のユーザによって送信された「飯田橋に20時待ち合わせでいい?」というメッセージ486が表示されている。これに対して、第1のユーザによりメッセージ入力欄484に「いいよ。今、図書館。」というメッセージが入力される(S500)。ここで、撮像装置137は、随時、第1のユーザの撮像画像を取得し(S502)、特徴検出部139は、撮像装置137が取得したユーザの画像からユーザが笑顔であるか否か(すなわち、所定の特徴動作をしているか否か)を判断する(S504)。
特徴検出部139によりユーザが笑顔ではないと判断された場合(S506/No)、制御部237は、通常送信ボタン485の表示を生成する(S506)。具体的には、制御部237は、図17Aに示した表示480から「smile」送信ボタン485Aを除いた表示を生成する。さらに、該通常送信ボタン485が押下された場合、制御部237は、入力されたメッセージと、第1のユーザを表す通常のアイコン492Aとを関連付けて配置した表示を生成する。
一方、特徴検出部139によりユーザが笑顔であると判断された場合(S506/Yes)、制御部237は、通常送信ボタン485に加えて、「smile」送信ボタン485Aを含む表示を生成する(S510)。
ここで、制御部237は、「smile」送信ボタン485Aが押下されたか否かを判断する(S512)。ユーザにより「smile」送信ボタン485Aが押下された場合(S512/Yes)、制御部237は、第1のユーザを表す笑顔アイコン498Aと、入力されたメッセージとを関連付けて配置した表示を生成する。具体的には、制御部237は、図17Bに示した表示490を生成する。図17Bに示した表示490には、第1のユーザが入力した「いいよ。今、図書館。」というメッセージ498が、第2のユーザによる「飯田橋に20時待ち合わせでいい?」というメッセージ496の下に表示されている。また、「いいよ。今、図書館。」というメッセージ498は、第1のユーザを表す笑顔アイコン498Aからの吹き出しにて表示されている。この表示によれば、第1のユーザは、ユーザを表すアイコンの違いによって、笑顔にてメッセージを入力、送信したことをメッセージと併せて伝達することができる。
また、ユーザによりsmile送信ボタン485Aが押下されなかった場合(S512/No)、制御部237は、該通常送信ボタン485が押下された場合と同様に、入力されたメッセージと、第1のユーザを表すアイコン492Aとを関連付けて配置した表示を生成する(S508)。
なお、制御部237は、ユーザが笑顔の時のみ、smile送信ボタン485Aを表示してもよいし、一度でも笑顔を検出すれば、該メッセージを送信するまではsmile送信ボタン485Aを表示し続けてもよい。
以上説明したように、本開示の第5の実施形態に係る情報処理システムは、撮像装置137により取得した画像に基づいて、ユーザが所定の特徴動作をしているか否かを検出することができる。また、本開示の第5の実施形態に係る情報処理システムは、ユーザが所定の特徴動作を行ったか否かに基づいて、入力されたメッセージを伝達する際の情報処理を制御する。このため、本開示の第5の実施形態に係る情報処理システムによれば、ユーザは、メッセージを入力、送信する際のユーザの気分や感情をメッセージと併せて伝達することができる。
<7.ハードウェア構成>
以下では、図19を参照して、本開示の各実施形態に係る情報処理端末1および情報処理サーバ2を実現する情報処理装置7のハードウェア構成について説明を行う。図19は、本開示の各実施形態に係る情報処理装置7のハードウェア構成を説明した説明図である。なお、情報処理装置7による情報処理は、ソフトウェアとハードウェアとの協働によって実現される。
図19に示すように、情報処理装置7は、CPU(Central Processing Unit)700と、ROM(Read Only Memory)702と、RAM(Random Access Memory)704と、ブリッジ708と、内部バス706および710と、インターフェース712と、入力装置714と、出力装置716と、ストレージ装置718と、ドライブ720と、接続ポート722と、通信装置724と、を備える。
CPU700は、演算処理装置および制御装置として機能し、各種プログラムに従って、情報処理装置7内の動作全般を制御する。ROM702は、CPU700が使用するプログラム、演算パラメータを記憶し、RAM704は、CPU700の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU700は、例えば、ぼかし制御部109、特徴検出部139、メッセージ取得部203、213、223、233、関連情報取得部205、215、225、235、および制御部207、217、227、237の機能を実行する。
これらCPU700、ROM702およびRAM704は、ブリッジ708、内部バス706および710等により相互に接続されている。また、CPU700、ROM702およびRAM704は、インターフェース712を介して入力装置714、出力装置716、ストレージ装置718、ドライブ720、接続ポート722、および通信装置724とも接続されている。
入力装置714は、タッチパネルなどのユーザが情報を入力するための装置、およびセンサ等の外部からの情報が入力されるための装置を含み、また、入力された情報に基づいて入力信号を生成し、CPU700に出力するための入力制御回路なども含む。入力装置714は、例えば、撮像装置107、137、センサ部117、位置センサ127、および入力部103、113、123、133の機能を実行する。
出力装置716は、例えば、LCD装置、OLED装置、プラズマディスプレイ装置、CRT装置およびランプなどの表示装置を含む。さらに、出力装置716は、スピーカおよびヘッドホンなどの音声出力装置を含んでもよい。例えば、表示装置は、生成された画像を表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。出力装置716は、例えば、表示部105、115、125、135の機能を実行する。
ストレージ装置718は、情報処理装置7の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置718は、記憶媒体、記憶媒体にデータを記憶する記憶装置、記憶媒体からデータを読み出す読み出し装置、および記憶されたデータを削除する削除装置を含んでもよい。ストレージ装置718は、例えば、画像記憶部219、候補地記憶部229、特徴ポイント記憶部239の機能を実行する。
ドライブ720は、記憶媒体用リードライタであり、情報処理装置7に内蔵、または外付けされる。ドライブ720は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記憶されている情報を読み出して、RAM704に出力する。また、ドライブ720は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート722は、例えば、USB(Universal Serial Bus)ポート、光オーディオ端子等のような外部接続機器を接続するための接続ポートで構成された接続インターフェースである。
通信装置724は、例えば、ネットワーク3に接続するための通信デバイス等で構成された通信インターフェースである。また、通信装置724は、無線LAN対応通信装置であっても、有線によるケーブル通信を行うケーブル通信装置であってもよい。通信装置724は、例えば、端末通信部101、111、121、131、およびサーバ通信部201、211、221、231の機能を実行する。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
複数のユーザがそれぞれ入力したメッセージを取得するメッセージ取得部と、
撮像装置を用いて、前記メッセージを入力したユーザに関連した情報を取得する関連情報取得部と、
前記ユーザに関連した情報に基づいて、入力された前記メッセージを伝達するための情報処理を制御する制御部と、
を備える、情報処理システム。
(2)
前記関連情報取得部は、前記メッセージに関する入力操作に基づいて、自動的に前記ユーザに関連した情報を取得する、前記(1)に記載の情報処理システム。
(3)
前記制御部は、前記ユーザに関連した情報に基づいた画像である関連画像を前記メッセージと関連付けて配置した表示を生成して前記メッセージを伝達する、前記(1)または(2)に記載の情報処理システム。
(4)
前記関連画像は、前記撮像装置によって撮像された撮像画像である、前記(3)に記載の情報処理システム。
(5)
前記撮像画像は、さらにぼかし処理が施された画像である、前記(4)に記載の情報処理システム。
(6)
前記撮像装置は、フォーカス位置を像面位相差検出方式により検出し、
前記撮像画像は、前記撮像装置のデフォーカス処理によりぼかし処理が施された画像である、前記(5)に記載の情報処理システム。
(7)
前記関連情報取得部は、前記撮像装置および所定のセンサの少なくともいずれか一方を用いて、前記ユーザに関連した情報を取得し、
前記制御部は、前記ユーザに関連した情報に基づいて前記ユーザの状態を判断し、前記関連画像として、前記ユーザの状態に対応した画像を用いる、前記(3)に記載の情報処理システム。
(8)
前記制御部は、さらに前記メッセージに含まれる語句に基づいて前記ユーザの状態を判断する、前記(7)に記載の情報処理システム。
(9)
前記制御部は、前記ユーザの状態に対応した語句が前記メッセージに含まれる場合、前記語句を強調した表示を生成する、前記(7)または(8)に記載の情報処理システム。
(10)
前記制御部は、前記関連画像を前記メッセージの背景に用いた表示を生成する、前記(3)〜(9)のいずれか一項に記載の情報処理システム。
(11)
前記制御部は、前記関連画像の色情報に基づいて、前記メッセージを表示する色を制御する、前記(10)に記載の情報処理システム
(12)
前記関連情報取得部は、位置センサを用いて、前記ユーザに関連した情報として前記ユーザの位置情報を取得し、
前記制御部は、前記ユーザの位置情報からユーザ間の距離を判断し、前記ユーザ間の距離情報を前記メッセージと関連付けて配置した表示を生成して前記メッセージを伝達する、前記(1)に記載の情報処理システム。
(13)
前記制御部は、前記ユーザの位置情報に基づいて、前記ユーザ同士の集合場所の候補地を判断し、前記候補地を複数含む表示を生成する、前記(12)に記載の情報処理システム。
(14)
前記制御部は、さらに前記候補地の優先度に基づいて、前記ユーザ同士の集合場所の候補地を判断する、前記(13)に記載の情報処理システム。
(15)
前記制御部は、前記ユーザからの入力によって、情報処理を制御する際に用いる前記ユーザに関連した情報を変更する、前記(1)〜(14)のいずれか一項に記載の情報処理システム。
(16)
前記関連情報取得部は、前記ユーザに関連した情報として、前記撮像装置により取得された前記ユーザの特徴動作に関する情報を取得する、前記(1)に記載の情報処理システム。
(17)
前記制御部は、前記ユーザの特徴動作に関する情報に基づいて、画像を変更した表示を生成して前記メッセージを伝達する、前記(16)に記載の情報処理システム。
(18)
前記制御部は、前記ユーザの特徴動作に関する情報に基づいて、前記ユーザに対する所定の機能の使用可否を判断する、前記(16)または(17)に記載の情報処理システム。
(19)
前記制御部は、前記ユーザの特徴動作の程度または回数を評価し、前記特徴動作の評価結果と、前記メッセージが伝達されたユーザとを紐付け、ユーザに紐付けられた前記特徴動作の評価結果に基づいて、前記メッセージを伝達するための情報処理を制御する、前記(16)〜(18)のいずれか一項に記載の情報処理システム。
(20)
前記制御部は、前記ユーザの特徴動作の程度または回数を数値にて評価して、前記メッセージが伝達されたユーザに対して評価した数値をポイントとして付与し、ユーザごとに付与されたポイントの累計値が所定の条件を満たしたか否かに基づいて、前記ユーザに対する所定の機能の使用可否を判断する、前記(16)〜(19)のいずれか一項に記載の情報処理システム。
(21)
ユーザが入力したメッセージを取得するメッセージ取得部と、
撮像装置を用いて、前記ユーザに関連した情報を取得する関連情報取得部と、
前記ユーザに関連した情報と、入力された前記メッセージとを紐付けて送信する制御部と、
を備える、情報処理端末。
(22)
複数のユーザがそれぞれ入力したメッセージを取得することと、
撮像装置を用いて、前記メッセージを入力したユーザに関連した情報を取得することと、
前記ユーザに関連した情報に基づいて、入力された前記メッセージを伝達するための情報処理を制御することと、
含む、情報処理方法。
1 情報処理端末
2 情報処理サーバ
3 ネットワーク
101、111、121、131 端末通信部
103、113、123、133 入力部
105、115、125、135 表示部
107、137 撮像装置
109 ぼかし制御部
117 センサ部
127 位置センサ
139 特徴検出部
201、211、221、231 サーバ通信部
203、213、223、233 メッセージ取得部
205、215、225、235 関連情報取得部
207、217、227、237 制御部
219 画像記憶部
229 候補地記憶部
239 特徴ポイント記憶部

Claims (22)

  1. 複数のユーザがそれぞれ入力したメッセージを取得するメッセージ取得部と、
    撮像装置を用いて、前記メッセージを入力したユーザに関連した情報を取得する関連情報取得部と、
    前記ユーザに関連した情報に基づいて、入力された前記メッセージを伝達するための情報処理を制御する制御部と、
    を備える、情報処理システム。
  2. 前記関連情報取得部は、前記メッセージに関する入力操作に基づいて、自動的に前記ユーザに関連した情報を取得する、請求項1に記載の情報処理システム。
  3. 前記制御部は、前記ユーザに関連した情報に基づいた画像である関連画像を前記メッセージと関連付けて配置した表示を生成して前記メッセージを伝達する、請求項1に記載の情報処理システム。
  4. 前記関連画像は、前記撮像装置によって撮像された撮像画像である、請求項3に記載の情報処理システム。
  5. 前記撮像画像は、さらにぼかし処理が施された画像である、請求項4に記載の情報処理システム。
  6. 前記撮像装置は、フォーカス位置を像面位相差検出方式により検出し、
    前記撮像画像は、前記撮像装置のデフォーカス処理によりぼかし処理が施された画像である、請求項5に記載の情報処理システム。
  7. 前記関連情報取得部は、前記撮像装置および所定のセンサの少なくともいずれか一方を用いて、前記ユーザに関連した情報を取得し、
    前記制御部は、前記ユーザに関連した情報に基づいて前記ユーザの状態を判断し、前記関連画像として、前記ユーザの状態に対応した画像を用いる、請求項3に記載の情報処理システム。
  8. 前記制御部は、さらに前記メッセージに含まれる語句に基づいて前記ユーザの状態を判断する、請求項7に記載の情報処理システム。
  9. 前記制御部は、前記ユーザの状態に対応した語句が前記メッセージに含まれる場合、前記語句を強調した表示を生成する、請求項7に記載の情報処理システム。
  10. 前記制御部は、前記関連画像を前記メッセージの背景に用いた表示を生成する、請求項3に記載の情報処理システム。
  11. 前記制御部は、前記関連画像の色情報に基づいて、前記メッセージを表示する色を制御する、請求項10に記載の情報処理システム
  12. 前記関連情報取得部は、位置センサを用いて、前記ユーザに関連した情報として前記ユーザの位置情報を取得し、
    前記制御部は、前記ユーザの位置情報からユーザ間の距離を判断し、前記ユーザ間の距離情報を前記メッセージと関連付けて配置した表示を生成して前記メッセージを伝達する、請求項1に記載の情報処理システム。
  13. 前記制御部は、前記ユーザの位置情報に基づいて、前記ユーザ同士の集合場所の候補地を判断し、前記候補地を複数含む表示を生成する、請求項12に記載の情報処理システム。
  14. 前記制御部は、さらに前記候補地の優先度に基づいて、前記ユーザ同士の集合場所の候補地を判断する、請求項13に記載の情報処理システム。
  15. 前記制御部は、前記ユーザからの入力によって、情報処理を制御する際に用いる前記ユーザに関連した情報を変更する、請求項1に記載の情報処理システム。
  16. 前記関連情報取得部は、前記ユーザに関連した情報として、前記撮像装置により取得された前記ユーザの特徴動作に関する情報を取得する、請求項1に記載の情報処理システム。
  17. 前記制御部は、前記ユーザの特徴動作に関する情報に基づいて、画像を変更した表示を生成して前記メッセージを伝達する、請求項16に記載の情報処理システム。
  18. 前記制御部は、前記ユーザの特徴動作に関する情報に基づいて、前記ユーザに対する所定の機能の使用可否を判断する、請求項16に記載の情報処理システム。
  19. 前記制御部は、前記ユーザの特徴動作の程度または回数を評価し、前記特徴動作の評価結果と、前記メッセージが伝達されたユーザとを紐付け、ユーザに紐付けられた前記特徴動作の評価結果に基づいて、前記メッセージを伝達するための情報処理を制御する、請求項16に記載の情報処理システム。
  20. 前記制御部は、前記ユーザの特徴動作の程度または回数を数値にて評価して、前記メッセージが伝達されたユーザに対して評価した数値をポイントとして付与し、ユーザごとに付与されたポイントの累計値が所定の条件を満たしたか否かに基づいて、前記ユーザに対する所定の機能の使用可否を判断する、請求項16に記載の情報処理システム。
  21. ユーザが入力したメッセージを取得するメッセージ取得部と、
    撮像装置を用いて、前記ユーザに関連した情報を取得する関連情報取得部と、
    前記ユーザに関連した情報と、入力された前記メッセージとを紐付けて送信する制御部と、
    を備える、情報処理端末。
  22. 複数のユーザがそれぞれ入力したメッセージを取得することと、
    撮像装置を用いて、前記メッセージを入力したユーザに関連した情報を取得することと、
    前記ユーザに関連した情報に基づいて、入力された前記メッセージを伝達するための情報処理を制御することと、
    含む、情報処理方法。


JP2014136553A 2014-07-02 2014-07-02 情報処理システム、情報処理端末、および情報処理方法 Pending JP2016015009A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014136553A JP2016015009A (ja) 2014-07-02 2014-07-02 情報処理システム、情報処理端末、および情報処理方法
PCT/JP2015/061759 WO2016002306A1 (ja) 2014-07-02 2015-04-16 情報処理システム、情報処理端末、および情報処理方法
US15/312,268 US10546402B2 (en) 2014-07-02 2015-04-16 Information processing system, information processing terminal, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014136553A JP2016015009A (ja) 2014-07-02 2014-07-02 情報処理システム、情報処理端末、および情報処理方法

Publications (1)

Publication Number Publication Date
JP2016015009A true JP2016015009A (ja) 2016-01-28

Family

ID=55018864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014136553A Pending JP2016015009A (ja) 2014-07-02 2014-07-02 情報処理システム、情報処理端末、および情報処理方法

Country Status (3)

Country Link
US (1) US10546402B2 (ja)
JP (1) JP2016015009A (ja)
WO (1) WO2016002306A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021108009A (ja) * 2019-12-27 2021-07-29 Aホールディングス株式会社 端末の表示方法、プログラム、端末、サーバの情報処理方法
JP2022179488A (ja) * 2017-04-11 2022-12-02 Line株式会社 プログラム、表示方法および情報処理端末

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107889531A (zh) * 2015-04-28 2018-04-06 飞利浦照明控股有限公司 多图像场景中的元数据
KR102355152B1 (ko) 2017-12-21 2022-01-25 삼성전자주식회사 콘텐트 검색을 위한 방법 및 그 전자 장치
WO2019172087A1 (ja) * 2018-03-08 2019-09-12 ソニー株式会社 情報処理装置、端末機器、情報処理方法、およびプログラム

Family Cites Families (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4924250A (en) * 1986-03-31 1990-05-08 Minolta Camera Kabushiki Kaisha Automatic focus control device
US4792819A (en) * 1987-01-12 1988-12-20 Canon Kabushiki Kaisha Camera having automatic focusing device
FR2652471B1 (fr) * 1989-09-22 1991-11-29 Thomson Csf Dispositif de correction des defauts d'une suite d'images analysee par un capteur infrarouge matriciel a integration.
JPH04178607A (ja) * 1990-11-14 1992-06-25 Nikon Corp 自動合焦装置
JP3298171B2 (ja) * 1992-09-04 2002-07-02 株式会社ニコン オートフォーカスカメラ
US6947571B1 (en) * 1999-05-19 2005-09-20 Digimarc Corporation Cell phones with optical capabilities, and related applications
JPH08262552A (ja) * 1995-03-28 1996-10-11 Nikon Corp 距離情報が表示可能なカメラ
US7358999B2 (en) * 1998-03-10 2008-04-15 Canon Kabushiki Kaisha Focus sensing apparatus, focus sensing method using phase-differential detection and computer-readable storage medium therefor
FI113124B (fi) * 1999-04-29 2004-02-27 Nokia Corp Tiedonsiirto
US7406214B2 (en) * 1999-05-19 2008-07-29 Digimarc Corporation Methods and devices employing optical sensors and/or steganography
US6542750B2 (en) * 2000-06-10 2003-04-01 Telcontar Method and system for selectively connecting mobile users based on physical proximity
US6542749B2 (en) * 2000-06-10 2003-04-01 Telcontar Method and system for connecting proximately located mobile users based on compatible attributes
US20020037046A1 (en) * 2000-09-22 2002-03-28 Philips Electronics North America Corporation Totally embedded FGS video coding with motion compensation
WO2003017659A1 (en) * 2001-08-21 2003-02-27 Sony Corporation Information processing system, information processing apparatus, and method
US7929951B2 (en) * 2001-12-20 2011-04-19 Stevens Lawrence A Systems and methods for storage of user information and for verifying user identity
KR100439756B1 (ko) * 2002-01-09 2004-07-12 주식회사 인피니트테크놀로지 3차원 가상내시경 화면 표시장치 및 그 방법
JP3977684B2 (ja) * 2002-05-21 2007-09-19 株式会社東芝 デジタルスチルカメラ
US6763226B1 (en) * 2002-07-31 2004-07-13 Computer Science Central, Inc. Multifunctional world wide walkie talkie, a tri-frequency cellular-satellite wireless instant messenger computer and network for establishing global wireless volp quality of service (qos) communications, unified messaging, and video conferencing via the internet
JP2005018262A (ja) * 2003-06-24 2005-01-20 Canon Inc 情報配信制御方法およびその処理を実行するためのプログラムおよびそのプログラムを記憶する記憶媒体
JP4532865B2 (ja) * 2003-09-09 2010-08-25 キヤノン株式会社 撮像装置および撮像装置のフォーカス制御方法
US8659619B2 (en) * 2004-03-26 2014-02-25 Intellectual Ventures Fund 83 Llc Display device and method for determining an area of importance in an original image
JP2005276103A (ja) 2004-03-26 2005-10-06 Seiko Epson Corp 聞き手感情推定装置、聞き手感情推定方法、及びプログラム
US7593740B2 (en) * 2004-05-12 2009-09-22 Google, Inc. Location-based social software for mobile devices
US20060101116A1 (en) * 2004-10-28 2006-05-11 Danny Rittman Multifunctional telephone, walkie talkie, instant messenger, video-phone computer, based on WiFi (Wireless Fidelity) and WiMax technology, for establishing global wireless communication, network and video conferencing via the internet
JP2006133847A (ja) * 2004-11-02 2006-05-25 Fuji Xerox Co Ltd 情報出力システム、情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US7558709B2 (en) * 2004-11-08 2009-07-07 Muralidhara Subbarao Methods and apparatus for computing the input and output signals of a linear shift-variant system
JP4612866B2 (ja) * 2005-05-20 2011-01-12 キヤノン株式会社 撮像方法および撮像システム
US7634354B2 (en) * 2005-08-31 2009-12-15 Microsoft Corporation Location signposting and orientation
KR101125819B1 (ko) * 2005-10-11 2012-03-27 노키아 코포레이션 효율적인 규모가변적 스트림 조정을 위한 시스템 및 방법
KR20080066784A (ko) * 2005-10-11 2008-07-16 노키아 코포레이션 규모가변적 비디오 코딩을 위한 효율적 디코딩 화상 버퍼관리
US20070097147A1 (en) * 2005-10-28 2007-05-03 Keisuke Inata Dynamic image editing system, the same apparatus and mobile device
US8315308B2 (en) * 2006-01-11 2012-11-20 Qualcomm Incorporated Video coding with fine granularity spatial scalability
US8738545B2 (en) * 2006-11-22 2014-05-27 Raj Abhyanker Map based neighborhood search and community contribution
US8732091B1 (en) * 2006-03-17 2014-05-20 Raj Abhyanker Security in a geo-spatial environment
US8170116B2 (en) * 2006-03-27 2012-05-01 Nokia Corporation Reference picture marking in scalable video encoding and decoding
JP4785606B2 (ja) * 2006-04-27 2011-10-05 京セラ株式会社 グループ通信管理装置、通信端末、および通信方法
KR100816286B1 (ko) * 2006-05-18 2008-03-24 삼성전자주식회사 휴대 단말기와 외부 장치를 이용한 디스플레이 장치 및방법
US8396134B2 (en) * 2006-07-21 2013-03-12 Vidyo, Inc. System and method for scalable video coding using telescopic mode flags
US20080089411A1 (en) * 2006-10-16 2008-04-17 Nokia Corporation Multiple-hypothesis cross-layer prediction
US7991236B2 (en) * 2006-10-16 2011-08-02 Nokia Corporation Discardable lower layer adaptations in scalable video coding
AU2007309044B2 (en) * 2006-10-23 2011-04-28 Vidyo, Inc. System and method for scalable video coding using telescopic mode flags
JP4961984B2 (ja) * 2006-12-07 2012-06-27 ソニー株式会社 画像表示システム、表示装置、表示方法
US8199812B2 (en) * 2007-01-09 2012-06-12 Qualcomm Incorporated Adaptive upsampling for scalable video coding
US20080205529A1 (en) * 2007-01-12 2008-08-28 Nokia Corporation Use of fine granular scalability with hierarchical modulation
US20080201434A1 (en) 2007-02-16 2008-08-21 Microsoft Corporation Context-Sensitive Searches and Functionality for Instant Messaging Applications
JP2008252298A (ja) * 2007-03-29 2008-10-16 Sony Corp 無線通信装置、無線通信方法、情報処理装置、情報処理方法、およびプログラム
WO2008130905A2 (en) * 2007-04-17 2008-10-30 Mikos, Ltd. System and method for using three dimensional infrared imaging to provide detailed anatomical structure maps
JP5109803B2 (ja) * 2007-06-06 2012-12-26 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
WO2009000110A1 (en) * 2007-06-27 2008-12-31 Thomson Licensing Method and apparatus for encoding and/or decoding video data using enhancement layer residual prediction for bit depth scalability
WO2009042579A1 (en) 2007-09-24 2009-04-02 Gesturetek, Inc. Enhanced interface for voice and video communications
JP5219865B2 (ja) * 2008-02-13 2013-06-26 キヤノン株式会社 撮像装置及び焦点制御方法
KR101488795B1 (ko) * 2008-03-25 2015-02-04 엘지전자 주식회사 휴대 단말기 및 그 제어방법
KR101506219B1 (ko) * 2008-03-25 2015-03-27 삼성전자주식회사 3차원 영상 컨텐츠 제공 방법, 재생 방법, 그 장치 및 그기록매체
KR101412772B1 (ko) * 2008-04-29 2014-07-02 삼성전자주식회사 카메라 및 촬영 안내 정보 제공 방법
FR2931610B1 (fr) * 2008-05-20 2010-12-17 Canon Kk Procede et un dispositif de transmission de donnees d'images
KR101526970B1 (ko) * 2008-05-29 2015-06-16 엘지전자 주식회사 단말기 및 그 제어 방법
KR101507797B1 (ko) * 2008-05-29 2015-04-03 엘지전자 주식회사 단말기 및 그 제어 방법
US8831090B2 (en) * 2008-11-18 2014-09-09 Avigilon Corporation Method, system and apparatus for image capture, analysis and transmission
FR2939593B1 (fr) * 2008-12-09 2010-12-31 Canon Kk Procede et dispositif de codage video
WO2010072945A1 (fr) 2008-12-22 2010-07-01 France Telecom Procédé et dispositif de traitement de données textuelles
JP5302663B2 (ja) * 2008-12-24 2013-10-02 キヤノン株式会社 焦点検出装置及び方法、及び撮像装置
JP2010197311A (ja) * 2009-02-26 2010-09-09 Ricoh Co Ltd 通信装置
JP5279553B2 (ja) * 2009-03-04 2013-09-04 キヤノン株式会社 レンズ装置及びカメラシステム
US8111247B2 (en) * 2009-03-27 2012-02-07 Sony Ericsson Mobile Communications Ab System and method for changing touch screen functionality
US9148618B2 (en) * 2009-05-29 2015-09-29 Apple Inc. Systems and methods for previewing newly captured image content and reviewing previously stored image content
US8525912B2 (en) * 2009-10-16 2013-09-03 Samsung Electronics Co., Ltd. Method and apparatus for photographing an image of digital camera in a mobile communication terminal
KR20130122535A (ko) 2010-06-07 2013-11-07 어펙티바,아이엔씨. 웹서비스들을 이용한 심리 상태 분석
JP5549440B2 (ja) * 2010-07-12 2014-07-16 株式会社リコー 撮像装置、表示モニタ装置の色ずれ調整方法および表示モニタ装置の色ずれ調整装置
US8780991B2 (en) * 2010-09-14 2014-07-15 Texas Instruments Incorporated Motion estimation in enhancement layers in video encoding
EP2630799A4 (en) * 2010-10-20 2014-07-02 Nokia Corp METHOD AND DEVICE FOR VIDEO CODING AND DECODING
US8952983B2 (en) * 2010-11-04 2015-02-10 Nokia Corporation Method and apparatus for annotating point of interest information
JP2012109721A (ja) * 2010-11-16 2012-06-07 Canon Inc 撮像装置および撮像装置の制御方法
KR20140001930A (ko) * 2010-11-17 2014-01-07 어펙티바,아이엔씨. 소셜 네트워크를 통한 정서의 공유
US8831677B2 (en) * 2010-11-17 2014-09-09 Antony-Euclid C. Villa-Real Customer-controlled instant-response anti-fraud/anti-identity theft devices (with true-personal identity verification), method and systems for secured global applications in personal/business e-banking, e-commerce, e-medical/health insurance checker, e-education/research/invention, e-disaster advisor, e-immigration, e-airport/aircraft security, e-military/e-law enforcement, with or without NFC component and system, with cellular/satellite phone/internet/multi-media functions
JP5625856B2 (ja) 2010-12-13 2014-11-19 ソニー株式会社 撮像装置および撮像装置の制御方法
CN103262530B (zh) * 2010-12-15 2016-03-02 株式会社日立制作所 视频监视装置
US20120163472A1 (en) * 2010-12-22 2012-06-28 Qualcomm Incorporated Efficiently coding scanning order information for a video block in video coding
JP5685080B2 (ja) * 2010-12-28 2015-03-18 キヤノン株式会社 焦点検出装置及び焦点検出方法
JP5738434B2 (ja) * 2011-01-14 2015-06-24 ヴィディオ・インコーポレーテッド 改善されたnalユニットヘッダ
WO2012122425A1 (en) * 2011-03-10 2012-09-13 Dolby Laboratories Licensing Corporation Bitdepth and color scalable video coding
CN103430458B (zh) * 2011-03-10 2016-03-02 维德约股份有限公司 可伸缩视频编码的依存参数集
JP5849457B2 (ja) * 2011-06-24 2016-01-27 ソニー株式会社 無線操作端末および情報処理装置
US9451283B2 (en) * 2011-07-05 2016-09-20 Texas Instruments Incorporated Method, system and computer program product for selecting a motion vector in scalable video coding
US8601061B2 (en) * 2011-07-15 2013-12-03 International Business Machines Corporation Scheduling a meeting in real time
JP5418552B2 (ja) * 2011-07-22 2014-02-19 株式会社ニコン アダプター、カメラシステム、および、アダプター制御プログラム
US10237565B2 (en) * 2011-08-01 2019-03-19 Qualcomm Incorporated Coding parameter sets for various dimensions in video coding
KR101649207B1 (ko) * 2011-08-31 2016-08-19 노키아 테크놀로지스 오와이 멀티뷰 비디오 코딩 및 디코딩을 위한 방법, 장치 및 컴퓨터 프로그램
US8890864B2 (en) * 2011-12-12 2014-11-18 Lg Electronics Inc. Mobile terminal and controlling method thereof
US8391136B1 (en) * 2012-01-27 2013-03-05 Google Inc. Fallback messaging
JP5924091B2 (ja) * 2012-04-13 2016-05-25 株式会社リコー 画像処理装置、画像処理システム、プログラム
US9661264B2 (en) * 2012-06-01 2017-05-23 Nintendo Co., Ltd. Multi-display video communication medium, apparatus, system, and method
KR102009928B1 (ko) * 2012-08-20 2019-08-12 삼성전자 주식회사 협업 구현 방법 및 장치
EP3579562B1 (en) * 2012-09-28 2021-09-08 Sony Group Corporation Image processing device and method
WO2014072571A1 (en) * 2012-10-01 2014-05-15 Nokia Corporation Method and apparatus for scalable video coding
US20150245063A1 (en) * 2012-10-09 2015-08-27 Nokia Technologies Oy Method and apparatus for video coding
US10061349B2 (en) * 2012-12-06 2018-08-28 Sandisk Technologies Llc Head mountable camera system
KR102058918B1 (ko) * 2012-12-14 2019-12-26 삼성전자주식회사 홈 모니터링 방법 및 장치
KR102015534B1 (ko) * 2012-12-24 2019-08-28 삼성전자주식회사 복수의 단말들간의 메시지 싱크 방법, 기계로 읽을 수 있는 저장 매체 및 서버
US20140218473A1 (en) * 2013-01-07 2014-08-07 Nokia Corporation Method and apparatus for video coding and decoding
GB2509953B (en) * 2013-01-18 2015-05-20 Canon Kk Method of displaying a region of interest in a video stream
GB2509954B (en) * 2013-01-18 2016-03-23 Canon Kk Method of displaying a region of interest in a video stream
TW201517597A (zh) * 2013-07-31 2015-05-01 Nokia Corp 用於視訊編碼及解碼之方法及裝置
US9813736B2 (en) * 2013-09-27 2017-11-07 Qualcomm Incorporated Inter-view dependency type in MV-HEVC
WO2015082763A1 (en) * 2013-12-02 2015-06-11 Nokia Technologies Oy Video encoding and decoding
WO2015125494A1 (en) * 2014-02-21 2015-08-27 Sharp Kabushiki Kaisha System for temporal identifier handling for hybrid scalability
WO2015125489A1 (en) * 2014-02-24 2015-08-27 Sharp Kabushiki Kaisha Restrictions on signaling
WO2015178036A1 (en) * 2014-05-22 2015-11-26 Sharp Kabushiki Kaisha Method for decoding
US10291561B2 (en) * 2015-02-09 2019-05-14 Nokia Technologies Oy Apparatus, a method and a computer program for image coding and decoding
US9538137B2 (en) * 2015-04-09 2017-01-03 Microsoft Technology Licensing, Llc Mitigating loss in inter-operability scenarios for digital video

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022179488A (ja) * 2017-04-11 2022-12-02 Line株式会社 プログラム、表示方法および情報処理端末
JP7417681B2 (ja) 2017-04-11 2024-01-18 Lineヤフー株式会社 プログラム、表示方法および情報処理端末
JP2021108009A (ja) * 2019-12-27 2021-07-29 Aホールディングス株式会社 端末の表示方法、プログラム、端末、サーバの情報処理方法
JP7244413B2 (ja) 2019-12-27 2023-03-22 Line株式会社 端末の表示方法、プログラム、端末、サーバの情報処理方法

Also Published As

Publication number Publication date
WO2016002306A1 (ja) 2016-01-07
US10546402B2 (en) 2020-01-28
US20170161929A1 (en) 2017-06-08

Similar Documents

Publication Publication Date Title
US10986312B2 (en) Information processing apparatus, information processing method, program, and server
US11546410B2 (en) Device and method for adaptively changing task-performing subjects
US9830128B2 (en) Voice control device, voice control method and program
JP6992761B2 (ja) サーバ、クライアント端末、制御方法、記憶媒体、およびプログラム
WO2016002306A1 (ja) 情報処理システム、情報処理端末、および情報処理方法
KR102056031B1 (ko) 정보 처리 장치 및 정보 처리 방법
CN110061900B (zh) 消息显示方法、装置、终端及计算机可读存储介质
KR20180133743A (ko) 이동 단말기 및 그 제어 방법
CN110601959B (zh) 会话消息显示方法、装置、终端及存储介质
CN111083039B (zh) 消息的未读标记处理方法、装置、存储介质及终端
CN109104564B (zh) 一种拍摄提示方法及终端设备
CN103945321B (zh) 资源转移的方法和装置
JP6891879B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US10430145B2 (en) Remote terminal, method of remote instruction
EP3185508A1 (en) Shared communication terminal, communication system, and communication method
JP2015172883A (ja) 端末装置、情報通信方法及び情報通信プログラム
CN111147745B (zh) 拍摄方法、装置、电子设备及存储介质
JP2017199972A (ja) 端末装置、情報取得システム、情報取得方法およびプログラム
CN114466237B (zh) 显示方法、装置、计算机设备及介质
JP5977697B2 (ja) 電子機器、および電子機器を制御するための方法
WO2018232655A1 (zh) 可用于信息分享的移动终端和相关产品
JP2014209778A (ja) 情報処理装置および情報処理方法