JP7424309B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP7424309B2
JP7424309B2 JP2020558140A JP2020558140A JP7424309B2 JP 7424309 B2 JP7424309 B2 JP 7424309B2 JP 2020558140 A JP2020558140 A JP 2020558140A JP 2020558140 A JP2020558140 A JP 2020558140A JP 7424309 B2 JP7424309 B2 JP 7424309B2
Authority
JP
Japan
Prior art keywords
user
information processing
area
image
projection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020558140A
Other languages
English (en)
Other versions
JPWO2020105299A1 (ja
Inventor
綾香 佐藤
朋子 高橋
次郎 川野
大夢 弓場
誠 今村
豊 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020105299A1 publication Critical patent/JPWO2020105299A1/ja
Application granted granted Critical
Publication of JP7424309B2 publication Critical patent/JP7424309B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/228Character recognition characterised by the type of writing of three-dimensional handwriting, e.g. writing in the air
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
近年、テレビ受像機、壁面ディスプレイ(大型ディスプレイ)、およびプロジェクタ等の固定型表示機器、ならびにスマートフォン、タブレット端末、およびノートPC(Personal Computer)等のモバイル型表示機器といった多様な表示機器が開発されている。
例えば下記特許文献1では、プロジェクタによりテーブル面に映像を投影し、テーブル面に対するタッチ操作を検出して映像に反映させるシステムについて開示されている。
国際公開第2015/098189号
しかしながら、ユーザが映像と共に写真を撮ろうとする際、ユーザの立ち位置によっては、映像に含まれる各オブジェクトの配置が好ましくない場合がある。
本開示によれば、オブジェクトを提示する提示画面の近傍に存在するユーザの認識結果と、前記ユーザの撮影準備動作の検出結果に応じて、前記ユーザの認識領域に所定のオブジェクトが重ならないよう提示する制御を行う制御部を備える、情報処理装置を提案する。
本開示によれば、プロセッサが、オブジェクトを提示する提示画面の近傍に存在するユーザの認識結果と、前記ユーザの撮影準備動作の検出結果に応じて、前記ユーザの認識領域に所定のオブジェクトが重ならないよう提示する制御を行うことを含む、情報処理方法を提案する。
本開示によれば、コンピュータを、オブジェクトを提示する提示画面の近傍に存在するユーザの認識結果と、前記ユーザの撮影準備動作の検出結果に応じて、前記ユーザの認識領域に所定のオブジェクトが重ならないよう提示する制御を行う制御部として機能させるための、プログラムを提案する。
本開示の一実施形態による情報処理システムの概要について説明する図である。 本実施形態による情報処理装置の構成の一例を示すブロック図である。 本実施形態による描き込み画像の送信処理の流れの一例を示すフローチャートである。 本実施形態による描き込み画像の提示処理の流れの一例を示すフローチャートである。 本実施形態によるユーザの顔位置に応じたオブジェクトの配置変更について説明する図である。 本実施形態によるイベントロゴオブジェクトの配置について説明する図である。 本実施形態による複数のユーザグループを認識した場合のイベントロゴオブジェクトの提示について説明する図である。 本実施形態の第1の変形例による撮影したいオブジェクトの選択について説明する図である。 本実施形態の第2の変形例による描き込み中ユーザの撮影と表示について説明する図である。 本実施形態の第5の変形例による特定のロゴを予め表示した手書き入力画面の一例を示す図である。 本実施形態の第6の変形例による投影領域Sにおけるフォトエリアの設定について説明する図である。 本実施形態の第7の変形例による踏み台を用いたユーザ位置認識の一例について説明する図である。 本実施形態の第8の変形例による描き込み場所に応じた描き込み画像の配置について説明する図である。 本実施形態の第9の変形例による撮影最適エリアの設置について説明する図である。 本実施形態の第10の変形例による透明ディスプレイを用いた場合のオブジェクトの配置制御について説明する図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.情報処理装置10の構成
3.動作処理
3-1.描き込み画像の送信処理
3-2.描き込み画像の提示処理
4.変形例
4-1.撮影したいオブジェクトの選択
4-2.描き込み者の顔画像を併せて表示
4-3.描き込み画像のコピー
4-4.描き込み画像の人気度を算出
4-5.手書き入力画面に特定のロゴを予め表示
4-6.フォトエリアの設定
4-7.センサ付き台によるユーザ位置の認識
4-8.描き込み場所に応じた描き込み画像の配置
4-9.撮影最適エリアの設置
4-10.透明ディスプレイの利用
4-11.その他
5.まとめ
<<1.本開示の一実施形態による情報処理システムの概要>>
図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システムは、壁面を投影領域Sとして画像を投影するプロジェクタ20と、投影領域Sを含む領域を撮影するカメラ30(カメラ30の画角(認識領域)は、投影領域Sと同じか、投影領域Sより少し大きい範囲とする)と、プロジェクタ20による画像の投影を制御する情報処理装置10と、ユーザによる壁面やテーブル面での手書き入力画像を取得するスマートプロジェクタ40と、を含む。
プロジェクタ20、カメラ30、およびスマートプロジェクタ40は、ネットワーク3(3A、3B)を介して情報処理装置10と接続し、データの送受信を行い得る。また、プロジェクタ20、カメラ30、およびスマートプロジェクタ40は、例えば有線/無線LAN(Local Area Network)、またはWi-Fi(Wireless Fidelity、登録商標)、Bluetooth(登録商標)等により、ネットワーク3と通信接続する。
プロジェクタ20は、空間の任意の場所に画像を投影する投影装置である。プロジェクタ20は、例えば固定型の広角プロジェクタであってもよいし、Pan/Tilt駆動型等の投影方向を変更可能な可動部を備えるいわゆるムービングプロジェクタであってもよい。投影面は平面に限定されず、曲面であってもよいし、複数の面に分かれていてもよい。また、プロジェクタ20は、複数台により実現されてもよい。
カメラ30は、投影領域Sと、投影領域S近傍に居るユーザを含めて撮像し、ユーザ位置の認識に用いられる撮像画像を取得し、情報処理装置10に出力する。カメラ30は、例えばRGBカメラにより実現され得る。また、カメラ30は、投影領域Sの略正面に設けられ、投影領域Sにおける、投影領域Sの前面に居るユーザの領域(輪郭)を認識し得る。また、カメラ30は、複数台により実現されてもよい。
スマートプロジェクタ40は、図1に示すように、テーブル面に映像を投影し、投影面に対するタッチ操作をセンサ(カメラやデプスセンサ等)により検出し、例えばユーザが指等の操作体で描いた軌跡を表示することが可能な、インタラクティブなポータブル超短焦点プロジェクタである。ユーザは、例えばテーブル面に表示された手書き入力画面410に手書きで落書きを行い、「SEND」ボタン420をタップする。これにより、手書き入力したオブジェクト(画像)411が、情報処理装置10に送信される。図1に示す例では、テーブルにスマートプロジェクタ40を載置し、テーブル面に手書き入力画面410を投影してテーブル面で手書き入力を行っているが、本実施形態はこれに限定されず、例えば壁面にスマートプロジェクタ40を載置し、壁面に手書き入力画面を投影して壁面で手書き入力を行ってもよい。
本システムは、スマートプロジェクタ40を複数含んでいてもよいし、複数のスマートプロジェクタ40が離れた場所(投影領域Sと同一空間に限られない)に設置されていてもよい。また、ここでは一例としてスマートプロジェクタ40を用いて手書きオブジェクトを取得しているが、本実施形態はこれに限定されず、例えばスマートフォンやタブレット端末等のタッチパネルディスプレイで行われるタッチ操作入力により手書きオブジェクトを取得してもよい。また、例えばスキャナーにより手書きオブジェクトを取得してもよい。さらに、本システムは、手書きオブジェクトに限られず、ユーザがPC等を用いて作成した画像や、カメラで撮影した撮影画像(静止画、動画)等をオブジェクトとして取得するようにしてもよい。
情報処理装置10は、ネットワーク3Aを介してスマートプロジェクタ40と接続し、データの送受信を行い得る。また、情報処理装置10は、ネットワーク3Bを介して、プロジェクタ20やカメラ30と接続し、データの送受信を行い得る。情報処理装置10は、スマートプロジェクタ40、又は、プロジェクタ20およびカメラ30と同一空間にあってもよいし、クラウド上のサーバであってもよい。本実施形態では、一例として、情報処理装置10がクラウド上のサーバである場合について説明する。
情報処理装置10は、スマートプロジェクタ40から受信したオブジェクトをプロジェクタ20により投影領域Sに投影する制御を行う。情報処理装置10は、例えば多数のオブジェクトをランダムに配置した画像を生成し、投影領域Sに投影する制御を行う。投影領域Sには、多数のユーザが描き込んだオブジェクト210(210-1~210-8)がランダムに表示され(ユーザが描き込んだ落書きオブジェクト411も、スマートプロジェクタ40から情報処理装置10に送られ、オブジェクト210eとして投影され得る。)、沢山の落書きを見て楽しむことができる。情報処理装置10は、落書きオブジェクトを重ねて表示するようにしてもよい。
(背景)
ここで、投影領域Sに投影された沢山の落書きを見て楽しむだけではなく、ユーザは、例えば自分が描き込んだ落書きや、気に入った落書き、投影領域Sにランダムに表示された多数の落書きと共に写真を撮って楽しむことも想定される。
この場合、ユーザの立ち位置によっては、投影領域Sに投影(提示)される映像(提示画面)に含まれる各オブジェクトの配置が好ましくない場合がある。すなわち、プロジェクタ20により投影領域Sに画像を投影しているシステム構成の場合、投影領域Sとプロジェクタ20の間にユーザが位置すると、ユーザの顔に画像が投射されてしまい、例えばユーザがスマートフォン50で自撮りしようとする際、投影画像が邪魔となって自身の顔が綺麗に映らないといったことが生じる。
そこで、本開示による情報処理システムでは、提示画面近傍に居るユーザの位置を認識し、ユーザが撮影を行おうとしていることを検出した際に、ユーザの認識領域にはオブジェクトが重ならないよう、提示するオブジェクトの配置を自動的に変更することで、より好ましい状況での写真撮影を実現することができる。
具体的には、例えば、情報処理装置10は、投影領域Sと投影領域S近傍に居るユーザを撮影するカメラ30により取得した撮像画像に基づいて、ユーザの位置を認識し、ユーザ認識領域にオブジェクトが重ならないよう、配置制御を行う。より具体的には、情報処理装置10は、既にユーザの認識領域に提示されている落書きオブジェクトを、ユーザから離れるよう移動させる。この場合、落書きオブジェクトが、投影領域S前に位置するユーザに押し出されているように見える。これにより、ユーザの顔にオブジェクトが重なって投影されることなく、綺麗に写真を撮ることができる。
また、撮影する際、特定のオブジェクト、例えば本システムを提供している企業やイベントのロゴを示すオブジェクトも画角に含めることが好ましい(需要がある)場合もある。情報処理装置10は、ユーザの位置を認識した際、ユーザの近くに、イベントロゴオブジェクト220を提示する制御を行ってもよい。
以上、本開示の一実施形態による情報処理システムの概要について説明した。なお、投影領域Sに提示されるオブジェクトは、ユーザが落書きした画像に限定されず、予めシステム側で用意した画像であってもよいし、静止画に限定されず、動画であってもよいし、また、カメラで撮影した画像であってもよい。
<<2.情報処理装置10の構成>>
図2は、本実施形態による情報処理装置10の構成の一例を示すブロック図である。図2に示すように、情報処理装置10は、制御部100、通信部110、および記憶部120を有する。
制御部100は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10内の動作全般を制御する。制御部100は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部100は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
また、本実施形態による制御部100は、描き込み画像管理部101、提示画像生成部102、提示制御部103、顔位置認識部104、および状況認識部105として機能する。
描き込み画像管理部101は、ユーザによる描き込み画像(例えば上記落書き画像であって、オブジェクトの一例である)を、通信部110を介してスマートプロジェクタ40等から取得し、記憶部120に蓄積する。描き込み画像には、描き込み時間の情報や書き込み場所の情報、および、書き込み者の情報(ユーザ情報)や、当該書き込み画像を識別する識別情報等の属性情報が付与され得る。
提示画像生成部102は、描き込み画像を配置した提示画像を生成する。この際、提示画像生成部102は、多数の描き込み画像をランダムに配置してもよいし、属性情報に応じて配置してもよい。生成された提示画像は、提示制御部103により、通信部110からプロジェクタ20に送信され、投影領域Sに投影される。
また、提示画像生成部102は、顔位置認識部104による顔位置の認識結果や、状況認識部105による状況認識結果に応じて、描き込み画像の配置を決定/変更してもよい。
顔位置認識部104は、カメラ30もより撮像された撮像画像に基づいて、投影領域Sの前に居るユーザの顔位置を認識する。例えば顔位置認識部104は、撮像画像から、目、鼻、口等の顔の特徴的なパーツの特徴量を抽出し、顔を検出する。顔検出のアルゴリズムは特に限定しない。また、顔位置認識部104は、さらに撮像画像に基づいて、ユーザの視線や顔向きを認識することも可能である。
また、顔位置認識部104は、撮像画像に基づくボーン推定等により、頭部の位置を推定して顔位置とみなしてもよいし、撮像画像に基づいて、帽子やメガネなど頭部の装飾物を抽出して顔位置を認識してもよい。また、イベントにて所定のQRコード(登録商標)やIR光発光部等が設けられた頭部装飾物を配布し、ユーザがそれを頭部につけている場合、顔位置認識部104は、カメラ30(IR光を検出する場合はIRカメラなど)によりQRコードやIR光を検知し、ユーザの顔位置を認識することも可能である。また、ここでは一例としてユーザの「顔」の位置を認識する機能について説明したが、本実施形態はこれに限定されず、制御部100は、カメラ30の撮像画像に基づいて、ユーザの全身を認識する機能を有していてもよい。
状況認識部105は、カメラ30の撮像画像に基づいて、周辺状況を認識する。具体的には、状況認識部105は、撮像画像に基づいて、ユーザの撮影準備動作を検出する。ユーザの撮影準備動作の検出とは、ユーザが被写体となる撮影が行われることの検出であって、例えば、画像認識によりユーザがスマートフォン等のカメラを用いて自撮りしようとしていることをユーザの動き等から検出し得る。また、状況認識部105は、撮像画像から検出された顔の向きが、投影領域Sと正対する方向(正面方向)に向いている場合を、撮影準備動作として検出するようにしてもよい。また、ユーザは自撮りに限られず他撮りされる場合もあるため、状況認識部105は、ユーザに向けて他ユーザがカメラを構えている様子を撮像画像から認識し、撮影準備動作として検出するようにしてもよい。
提示画像生成部102は、ユーザの撮影準備動作が検出された際、ユーザの顔領域に重ならないよう、投影領域Sに提示するオブジェクトの配置を変更、決定する。これにより、投影領域Sの前でユーザが写真を撮影する際に、投影領域Sへの投影画像がユーザの顔に重複せず綺麗に撮影することができる。なおユーザの顔領域からはオブジェクトを退避するため、ユーザの顔には透明の光が投射されることとなるが、ユーザの顔が明るく照らされる分には、撮影上何ら問題はなく、むしろ効果的な場合もある。若しくは、ユーザの顔領域には投射自体を行わないようにすることも可能である。
提示画像におけるユーザの顔領域の判断は、上述したように、カメラ30により投影領域Sを撮像した撮像画像に基づいて認識したユーザの顔位置に対応する領域となる。カメラ30は、例えば投影領域Sの略正面から投影領域Sを撮影することが望ましいが、本実施形態はこれに限定されない。例えば顔位置認識部104は、カメラ30の撮像画像に基づいて、投影領域Sにおいてユーザの影となっている領域をユーザ領域(顔領域を含む)として認識してもよい。
(通信部110)
通信部110は、有線または無線によりネットワーク3(3A、3B)と接続し、ネットワーク3を介して外部装置とデータの送受信を行う。通信部110は、例えば有線/無線LAN(Local Area Network)、またはWi-Fi(Wireless Fidelity、登録商標)、Bluetooth(登録商標)等によりネットワーク3と通信接続する。
(記憶部120)
記憶部120は、制御部100の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
例えば記憶部120は、描き込み画像管理部101により管理される描き込み画像(オブジェクト)や、予め用意されたタイトルロゴを示すオブジェクト(画像)を蓄積する。
以上、本実施形態による情報処理装置10の構成について具体的に説明した。なお図2に示す情報処理装置10の構成は一例であって、本実施形態はこれに限定されない。例えば情報処理装置10が複数の装置で構成されていてもよいし、少なくとも一部の構成が外部装置(例えば情報処理装置10がサーバの場合、クライアント端末やエッジサーバ、プロジェクタ20、カメラ30、スマートプロジェクタ40等)にあってもよい。
<<3.動作処理>>
<3-1.描き込み画像の送信処理>
図3は、本実施形態による描き込み画像の送信処理の流れの一例を示すフローチャートである。
図3に示すように、まず、スマートプロジェクタ40は、待機状態の画面を表示し(ステップS103)、画像作成開始のボタンが選択された場合(ステップS106/Yes)、描画画面を表示(テーブル面に投影)する(ステップS109)。描画動作は、テーブル面に表示された投影画面に対するタッチ操作により(手書きで)行われ得る。
次いで、画像完成のボタンが選択された場合(ステップS112/Yes)、画像を保存し(ステップS115)、送信画面を表示する(ステップS118)。送信画面には、例えば「この内容で送信してよろしいですか?」といった表示が提示される。ユーザは、図1に示すようなテーブル面に投影された「SEND」ボタン420をタップする。複数の投影領域Sが存在する場合等は、送信画面において送信場所(画像の出力場所)を選択することも可能である。
そして、スマートプロジェクタ40は、情報処理装置10に画像を送信する(ステップS121)。スマートプロジェクタ40は、送信した後、送信完了の旨と、どこに送信されたか(投影領域Sの場所)を示す案内画面を表示してもよい。
以上、本実施形態による描き込み画像の送信処理について説明した。なお、ここでは一例としてスマートプロジェクタ40を用いているが、本実施形態はこれに限定されず、例えばタッチパネルディスプレイを用いて書き込み画像を生成し、送信してもよい。
<3-2.描き込み画像の提示処理>
次に、描き込み画像の提示処理について図4を参照して説明する。図4は、本実施形態による描き込み画像の提示処理の流れの一例を示すフローチャートである。
図4にしめすように、まず、情報処理装置10は、スマートプロジェクタ40から画像を受信すると、記憶部120に保存する(ステップS203)。
次に、情報処理装置10は、受信した画像を初期位置に配置し、プロジェクタ20から投影する(ステップS206)。初期位置とは、例えばランダムに表示する場合にはランダムに決定した位置、新しい描き込み程左側に表示するといったルールの場合は、投影領域Sの左側に配置する。また、情報処理装置10は、投影領域Sに提示する描き込み画像の個数の上限値を予め設定し、上限値を越える場合には、描き込み時間が古い画像から削除するようにしてもよい。また、提示する描き込み画像の提示時間の閾値を予め設定し、提示時間の閾値を越えた場合には、その描き込み画像を削除するようにしてもよい。
一方、情報処理装置10は、カメラ30で撮像された撮像画像に基づいて、提示画面周辺の状況や、投影領域S近傍に居るユーザの顔位置を継続的に認識する(ステップS209)。
次いで、情報処理装置10は、ユーザの顔位置認識結果や、状況認識結果に応じて、提示画面近傍で撮影しようとしているユーザの顔周辺を避けるよう、各画像(オブジェクト)の配置を変更する制御を行う(ステップS212)。オブジェクトの配置変更について、図5を参照して説明する。
図5は、本実施形態によるユーザの顔位置に応じたオブジェクトの配置変更について説明する図である。図5左上の図に示すように、プロジェクタ20により、投影領域Sに多数の描き込み画像(オブジェクト)が投影されている場合に、図5右上の図に示すように、ユーザU1、U2が投影領域Sの前に立って自撮りをしようとカメラを構えると、カメラ30の撮像画像に基づいて、当該自撮り動作が検出される(少なくとも顔の向きが正面を向いている検出される)。
この場合、情報処理装置10は、図5の右下の図に示すように、カメラ30の撮像画像に基づいて、少なくともユーザの顔を含むユーザの認識領域310を特定し、かかる認識領域310を回避するため、周辺のオブジェクト210-10~210-13を、認識領域310から離れるよう(認識領域310に重ならないよう)(提示位置を)移動させる。これにより、撮影時にユーザの顔にオブジェクトが重ならず、綺麗に撮影することができる。ユーザは、自分が描き込んだ画像と一緒に写真を撮りたい場合、自らその書き込み画像に近付けて自撮り等を行うことが想定されるが、この際、他の描き込み画像がユーザの顔に投射されてしまう場合がある。本実施形態では、このようにユーザの顔と重なるオブジェクトをユーザから離れるよう移動させる制御を行う。オブジェクトを移動させるアニメーションは、ユーザがユーザ領域から描き込み画像を押し出している(描き込み画像がユーザを避けていく)ように見える。なお、図5の右下に示す図では、顔以外の部分にも重複しないよう提示制御され得るが、本実施形態はこれに限定されず、顔位置に対応する顔認識領域だけにオブジェクトが重複しないよう提示制御してもよい。
また、情報処理装置10は、特定の画像を、当該認識したユーザの顔付近に配置するよう制御してもよい(ステップS215)。特定の画像とは、例えば優先度の高いオブジェクトであって、より具体的には、予め生成されたイベントロゴや企業ロゴを示すオブジェクト(宣伝オブジェクト)、ユーザが指定したオブジェクト、または、人気度の高いオブジェクト等が想定される。また、情報処理装置10は、特定の画像以外の画像(オブジェクト)はユーザの領域から離れるよう提示制御してもよい。ここで図6に、イベントロゴオブジェクト220の配置について説明する図を示す。例えば情報処理装置10は、図6に示すように、撮影しようとしているユーザを認識した際、ユーザの顔付近に、イベントロゴオブジェクト220を表示する。また、情報処理装置10は、イベントロゴオブジェクト220の大きさを、ユーザの顔の大きさに合わせて可変してもよい。また、情報処理装置10は、ユーザが撮影するカメラの画角を想定してイベントロゴオブジェクト220の配置や大きさを調整してもよい。具体的には、例えば、少なくともユーザの顔が3分の1の領域を占める正方形の画角350を想定し、イベントロゴオブジェクト220と描き込み画像が見える部分もそれぞれ3分の1の領域となるよう、イベントロゴオブジェクト220の大きさや配置を調整してもよい。また、情報処理装置10は、ユーザを撮影するカメラ(例えばユーザが把持するカメラ)とユーザまたは投影領域Sとの距離(焦点距離)が、カメラ30やその他設置されたセンサ装置により測れる場合、かかる距離に応じて(画角が想定され)、イベントロゴオブジェクト220の大きさや配置を調整してもよい。カメラ(例えばユーザが把持するカメラ)とユーザまたは投影領域Sとの距離(焦点距離)は、当該カメラにより検知し、取得してもよい。
また、情報処理装置10は、認識したユーザが投影領域S前で移動した場合(例えば自撮りするカメラでの写りを確認しつつ、正面を向きながら立ち位置を移動すること等が想定される)、当該ユーザを追跡し、上記特定の画像をユーザに追従させてもよい。
なお、投影領域Sが大画面の場合、多数のユーザが各々同時に自撮り等を行う場合も想定される。この場合、情報処理装置10は、複数のユーザグループが認識できた場合、各グループに1つイベントロゴオブジェクト220を提示するよう制御してもよい。以下、図7を参照して説明する。
図7は、本実施形態による複数のユーザグループを認識した場合のイベントロゴオブジェクトの提示について説明する図である。図7上段の図に示すように、カメラ30の撮像画像から複数のユーザU1~U3の顔位置を認識した場合、情報処理装置10は、各顔位置間の距離に応じて、同一グループか否かを判断し得る。例えば、ユーザ間の距離dが50cm以下の場合、同一グループと判断し、ユーザ間の距離が50cmを越える場合は、異なるグループと判断してもよい。数値は一例であって、本実施形態はこれに限定されない。
ユーザ間の距離に基づいて、ユーザU1とユーザU2が同一グループと判断した場合、情報処理装置10は、図7上段の図に示すように、イベントロゴオブジェクト220-1を提示する。また、異なるグループと判断されたユーザU3の付近にも、イベントロゴオブジェクト220-2を提示する。これにより、イベントロゴオブジェクト220の取り合いにならず、各グループがイベントロゴオブジェクト220と一緒に写真撮影を行うことができる。
なおこの場合も、例えばユーザU3が移動した場合、情報処理装置10は、イベントロゴオブジェクト220-2がユーザU3に追従するよう提示位置を移動させる。
また、ユーザU3が投影領域Sから離れた場合、情報処理装置10は、イベントロゴオブジェクト220-2を非表示にし、また別のユーザが投影領域Sの前で写真を撮影しようとした場合に、イベントロゴオブジェクト220-2を表示するようにしてもよい。
以上、本実施形態による動作処理について説明した。なお、情報処理装置10は、認識したユーザ領域の周辺が明るくなるよう、ユーザ領域には白投影(透明の光の照射)を行うようにしてもよい。
<<4.変形例>>
続いて、本実施形態の変形例について説明する。
<4-1.撮影したいオブジェクトの選択>
ユーザは、投影領域Sに提示されている多数のオブジェクトから、撮影したいオブジェクトを選択することが可能である。情報処理装置10は、選択されたオブジェクトをユーザの顔付近に近づけたり一時的に大きく表示したりすることで、撮影し易いようにすることができる。
図8は、本実施形態の第1の変形例による撮影したいオブジェクトの選択について説明する図である。図8の上段に示すように、例えばユーザがマーカー入りのステッキや指差しによりオブジェクト210-20、210-21を選択し、図8の下段に示すように、選択状態で撮影準備動作を行うと、情報処理装置10は、選ばれたオブジェクト210-20、210-21を、ユーザの近くに寄せたり、大きく表示したりする制御を行う。ユーザにより選択された際、フィードバックとしてオブジェクトを揺らす等のアニメーションを加えてもよい。
マーカー入りのステッキとは、例えばステッキの先端にQRコード(登録商標)を添付した指示体であって、カメラ30の撮像画像からマーカーを検出し、ユーザによる指し位置を認識する。ここでは一例としてマーカー入りのステッキを用いる場合について説明したが、本実施形態はこれに限定されず、IR発光部を設けたステッキを用いてもよいし、指差し等のジェスチャにより指示するようにしてもよい。
<4-2.描き込み者の顔画像を併せて表示>
本システムは、描き込み中のユーザの顔をスマートプロジェクタ40により取得し、これを描き込み画像(オブジェクト)と共に投影領域Sに提示することも可能である。以下、図9を参照して説明する。
図9は、本実施形態の第2の変形例による描き込み中ユーザの撮影と表示について説明する図である。図9に示すように、ユーザがテーブル面に投影された描き込み画面に描き込んでいる様子(顔画像)を、スマートプロジェクタ40により撮影し、撮影画像(静止画または動画)を、投影領域Sに、描き込み画像(オブジェクト210-30)と共に提示してもよい。これにより、どのような人物により描き込まれたのか、また、有名人による描き込み等を、直感的に判別することが可能となる。また、情報処理装置10は、有名人による描き込み画像には識別フラグを立てて保存するようにしてもよい。また、情報処理装置10は、有名人の識別フラグがある場合、描き込み中に撮影したユーザ画像ではなく、所定の公式アーティスト画像を、当該描き込み画像を表示するようにしてもよい。
<4-3.描き込み画像のコピー>
情報処理装置10は、有名人と認識された者により生成された(有名人の識別フラグがある)描き込み画像が、図8を参照して上述したようにマーカー入りのステッキ等により選択された場合は、当該描き込み画像のコピーを生成し、生成したコピーをユーザの近くに移動させるようにしてもよい。有名人の描き込み画像は人気が高いと想定されるためである。これにより、複数の利用者が同時に有名人の描き込み画像とそれぞれ撮影することが可能となる。
<4-4.描き込み画像の人気度を算出>
情報処理装置10は、投影領域Sに提示した各描き込み画像の人気度を算出し、人気度の高さに応じた提示制御を行うことも可能である。
例えば情報処理装置10は、各描き込み画像にIRマーカー等の肉眼では見えないマーカーを付与した状態で投影領域Sに投影し、カメラ30により各描き込み画像の提示位置とユーザの位置を認識できるようにしておく。次いで、情報処理装置10は、図8を参照して上述したようにマーカー入りのステッキ等により選択された回数や、その描き込み画像に注目して(顔を向けて)集まっている人の多さ、また、その描き込み画像の前で撮影したユーザの人数等に応じて、描き込み画像の人気度を算出することが可能である。
そして、情報処理装置10は、人気度が所定値より高い描き込み画像は大きく表示したり、予め設定された提示時間の閾値を越えても消さずに表示し続けたり(提示時間の閾値を上げる)、描き込み時間が古い画像から削除する場合でも、人気度が所定値より高い描き込み画像は残すよう制御してもよい。
また、図8を参照して上述したようにマーカー入りのステッキ等により人気が所定値より高い描き込み画像が選択された場合は、当該描き込み画像のコピーを生成し、生成したコピーをユーザの近くに移動させるようにしてもよい。また、人気度が所定値より高い描き込み画像の付近にイベントロゴオブジェクト220(宣伝ロゴ)を表示するようにしてもよい。
<4-5.手書き入力画面410に特定のロゴを予め表示>
また、投影領域Sを、スポーツの試合前に登場直前の選手に向けたメッセージボードにしたり、フェスのライブ時に登場直前のアーティストに向けたメッセージボードにしたりすることも可能である。この場合、情報処理装置10は、登場する選手やアーティストに向けたメッセージをスマートプロジェクタ40から収集する。
この場合、スマートプロジェクタ40は、手書き入力画面に、登場する選手やチーム、アーティストに対応した公式のロゴや顔画像等を予め表示するようにしてもよい。このようなロゴが含まれた手書き入力画面は、情報処理装置10から取得し得る。図10に、本変形例による特定のロゴを予め表示した手書き入力画面の一例を示す。図10にしめすように、スマートプロジェクタ40は、特定のロゴ画像416を予め表示した手書き入力画面415をテーブル面等に投影し、ユーザによる描画動作を検出する。ユーザは、予め特定のロゴ画像416が表示されているため、応援メッセージ等が描きやすくなる。
<4-6.フォトエリアの設定>
本システムでは、投影領域Sが大画面の場合に、ユーザが描き込んで送った画像がすぐに表示されて撮影ができるフォトエリアの領域と、撮影が終わった描き込み画像をプールする領域とに分けて提示制御を行ってもよい。以下、図11を参照して説明する。
図11は、本変形例による投影領域Sにおけるフォトエリアの設定について説明する図である。図11の上段に示すように、例えば情報処理装置10は、投影領域Sの所定の領域をフォトエリアに設定し、イベントロゴオブジェクト220を表示すると共に、スマートプロジェクタ40から取得した描き込み画像(オブジェクト210-40)をリアルタイムで表示する。
これによりユーザは、図11中段に示すように、周辺の描き込み画像に邪魔されずに、自身が描き込んだ描き込み画像(オブジェクト210-40)と、イベントロゴオブジェクト220を含めて撮影を行うことが可能となる。この際も、情報処理装置10は、ユーザの顔位置を認識し、描き込み画像(オブジェクト210-40)が顔領域に重ならないように配置制御してもよい。
次いで、撮影が終わると(例えば所定時間が経過すると)、図11下段に示すように、情報処理装置10は、描き込み画像(オブジェクト210-40)を、フォトエリアから移動させて、多数の過去の描き込み画像(オブジェクト210)をプールするエリアに表示させる。情報処理装置10は、時間経過に応じて所定の方向に描き込み画像(オブジェクト210)が流れるよう表示制御してもよい。若しくは、情報処理装置10は、過去の描き込み画像(オブジェクト210)をプールする領域においてランダムに表示し、表示個数は所定値を越えた場合に、古い描き込み画像から順に削除するようにしてもよい。
<4-7.センサ付き台によるユーザ位置の認識>
ユーザの領域認識は、カメラ30による撮像画像に基づいて行う旨を説明したが、本実施形態はこれに限定されず、例えば投影領域Sの手前に踏み台を用意し、重さ等からユーザの立ち位置を認識し、ユーザの領域を推定することも可能である。以下、図12を参照して説明する。
図12は、本変形例による踏み台60を用いたユーザ位置認識の一例について説明する図である。図12に示すように、例えば投影領域Sの手前に踏み台60を用意し、ユーザが乗った際にその重さ等からユーザの立ち位置を判定し、立ち位置に基づいた投影領域Sにおけるユーザ領域360を推定する。情報処理装置10は、推定したユーザ領域360を避けるよう描き込み画像の配置を制御したり、イベントロゴオブジェクト220を近くに寄せたりする制御を行い得る。これにより、カメラ30を設置せずともユーザ位置の認識が可能となる。
なお、ユーザ領域360の大きさや高さは、予め概ねの値を設定しておくようにしてもよいし、重さに応じて可変してもよい。
<4-8.描き込み場所に応じた描き込み画像の配置>
本システムでは、スマートプロジェクタ40が離れた場所に多数設置されている場合に、描き込み場所に応じて、描き込み画像の配置を制御することも可能である。これにより、どこで描き込みが行われた画像であるかを直感的に把握でき、より楽しむことができる。以下、図12を参照して説明する。
図13は、本変形例による描き込み場所に応じた描き込み画像の配置について説明する図である。図13に示すように、例えば投影領域Sに地図を表示し、各スマートプロジェクタ40a~40cが設置されている場所に応じた位置に、当該スマートプロジェクタ40取得した各描き込み画像411a~411cを表示するようにしてもよい。
また、描き込み場所に応じた描き込み画像の配置に限らず、描き込み場所に応じて描き込み画像の色(背景色や枠色)を区別させてもよい。
<4-9.撮影最適エリアの設置>
本システムでは、投影領域Sの前面に、撮影最適エリアを設置するようにしてもよい。図14は、本変形例による撮影最適エリアの設置について説明する図である。
図14に示すように、例えば壁面に設置されたスマートプロジェクタ40によりユーザU1が描き込みを行い、「SEND」ボタンをタップすると、投影領域Sに設けられた撮影最適エリアの壁面に、描き込み画像(オブジェクト210-60)が表示される。撮影最適エリアの壁面には、イベントロゴオブジェクト220も表示される。
撮影最適エリアは、例えば柵やブースで囲んで撮影者以外が入れないようにする。そして、カメラ台70にユーザU1のスマートフォン50等のカメラを設置し、例えばスマートフォン50のタイマー撮影により撮影する。撮影が終わった場合(所定時間経過した場合)、描き込み画像(オブジェクト210-60)は、隣のプールエリアに例えばランダムで表示される。
なお、撮影は、自前のカメラに限定されず、例えばカメラ台70に専用カメラを設置して専用カメラにより撮影するようにしてもよい。この場合、情報処理装置10は、撮影後に所定のQRコード等を壁面に表示し、ユーザがスマートフォンでこれを読み取らせる。ユーザは、QRコードから読み取ったURLにアクセスし(または所定のアプリケーションを立ち上げて)、当該専用カメラで撮影された画像を取得する。
<4-10.透明ディスプレイの利用>
本システムは、図1に示すシステム構成に限定されず、例えば、図15に示すように、ユーザの前面に透明ディスプレイを設置してオブジェクトを表示する例も想定される。
図15は、本変形例による透明ディスプレイを用いた場合のオブジェクトの配置制御について説明する図である。
図15に示すように、例えばユーザの背面と前面にディスプレイを設置する場合を想定する。ユーザの背面に設置される背面ディスプレイ81は、液晶表示装置であってもよいし、上述したプロジェクタ20により投影領域Sであってもよい。
また、ユーザの前面には、透明ディスプレイ80が位置し、様々なオブジェクトが表示されたり、動いたり、流れたりする。
ユーザU11が、透明ディスプレイ80の後ろに立って、ユーザU10が撮影を行う際、ユーザU11の顔に、透明ディスプレイ80に表示されたオブジェクトが重なると、ユーザの顔が綺麗に映らないといった問題が生じる。そこで、本システムにおいても、上述した実施形態と同様に、カメラ30により取得した撮像画像に基づいてユーザU11の顔位置を認識し、顔位置に対応する顔領域357(又はユーザU11の全身の領域であってもよい)を避けてオブジェクトを表示するよう制御する。また、背面ディスプレイ81においても同様にユーザ領域355を認識し、背面ディスプレイ81に表示するオブジェクトがユーザ領域355を避けるよう表示制御してもよい。
<4-11.その他>
スマートプロジェクタ40と投影領域Sが同イベント会場にある場合、スマートプロジェクタ40から描き込み画像を(情報処理装置10に)送信した際、イベント会場に設置されているプロジェクタや壁や床のディスプレイにより、描き込み画像がスマートプロジェクタ40から投影領域Sまで移動している様子を実際に表示(投影)するよう制御してもよい。
投影領域Sに表示された描き込み画像に対するタップ操作等をセンサにより検出し、所定のスタンプ画像を付与できるようにしてもよい。
また、投影領域Sに表示された描き込み画像に対するタップ操作等をセンサにより検出し、当該描き込み画像に対する支持をカウントし、カウント値を表示したり、カウント値に応じて人気度を算出したり、カウント値に応じて大きく表示したり、長い時間表示したりするようにしてもよい。
スマートプロジェクタ40で描き込みを行う際、指の圧力を検出し、指の圧力に応じて描画する線の色の濃淡を表現するようにしてもよい。
<<5.まとめ>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理装置10に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置10の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
オブジェクトを提示する提示画面の近傍に存在するユーザの認識結果と、前記ユーザの撮影準備動作の検出結果に応じて、前記ユーザの認識領域に所定のオブジェクトが重ならないよう提示する制御を行う制御部を備える、情報処理装置。
(2)
前記制御部は、
前記ユーザの顔の位置を認識し、
前記ユーザの撮影準備動作として、前記ユーザが被写体となる撮影が行われることが検出された際に、前記ユーザの顔の領域に前記所定のオブジェクトが重ならないよう各オブジェクトの配置を変更した画像を生成する、前記(1)に記載の情報処理装置。
(3)
前記制御部は、
前記提示画面を撮像した撮像画像に基づいて、前記提示画面の近傍に存在する前記ユーザを認識する、前記(1)または(2)に記載の情報処理装置。
(4)
前記制御部は、
前記ユーザの顔領域を少なくとも含む認識領域に少なくとも一部が重複して提示されている1以上のオブジェクトを、当該認識領域から押し出すよう制御する、前記(1)~(3)のいずれか1項に記載の情報処理装置。
(5)
前記制御部は、
特定のオブジェクトを前記ユーザの認識領域に近付け、他のオブジェクトは前記ユーザの認識領域から離れるよう制御する、前記(1)~(4)のいずれか1項に記載の情報処理装置。
(6)
前記特定のオブジェクトは、優先度の高いオブジェクトである、前記(5)に記載の情報処理装置。
(7)
前記優先度の高いオブジェクトは、予め生成された所定のロゴを示すオブジェクト、前記ユーザが指定したオブジェクト、または、人気度の高いオブジェクトである、前記(6)に記載の情報処理装置。
(8)
前記制御部は、
前記ユーザの顔領域の近くに提示した、所定のロゴを示すオブジェクトの提示位置を、前記ユーザの顔領域の移動に追従させる提示制御を行う、前記(7)に記載の情報処理装置。
(9)
前記制御部は、
前記提示画面の近傍に複数のユーザを認識した場合、グループ毎に1つの前記特定のロゴを示すオブジェクトを提示するよう制御する、前記(7)または(8)に記載の情報処理装置。
(10)
前記制御部は、
前記複数のユーザ間の距離に応じて、同一グループか否かを判断する、前記(9)に記載の情報処理装置。
(11)
前記制御部は、
前記ユーザの撮影準備動作として、前記ユーザによる自撮り動作を検出する、前記(1)~(10)のいずれか1項に記載の情報処理装置。
(12)
前記制御部は、
前記ユーザの顔の向きを認識し、
前記ユーザの撮影準備動作として、前記ユーザが前記提示画面と正対する方向を向いたことを検出する、前記(1)~(11)のいずれか1項に記載の情報処理装置。
(13)
前記制御部は、
前記ユーザの撮影準備動作として、前記ユーザを被写体として撮影しようとする他ユーザを検出する、前記(1)~(12)のいずれか1項に記載の情報処理装置。
(14)
前記提示画面は、投影画像であって、
前記制御部は、前記ユーザの認識領域に所定のオブジェクトが重ならないよう配置した画像を生成する、前記(1)~(13)のいずれか1項に記載の情報処理装置。
(15)
前記制御部は、
1以上の前記オブジェクトを、時間、または場所に基づいて配置した画像を生成する、前記(1)~(14)のいずれか1項に記載の情報処理装置。
(16)
前記制御部は、1以上の前記オブジェクトを、ランダムに、または、描き込み時間、若しくは描き込み位置情報に応じて配置した画像を生成する、前記(1)~(15)のいずれか1項に記載の情報処理装置。
(17)
プロセッサが、
オブジェクトを提示する提示画面の近傍に存在するユーザの認識結果と、前記ユーザの撮影準備動作の検出結果に応じて、前記ユーザの認識領域に所定のオブジェクトが重ならないよう提示する制御を行うことを含む、情報処理方法。
(18)
コンピュータを、
オブジェクトを提示する提示画面の近傍に存在するユーザの認識結果と、前記ユーザの撮影準備動作の検出結果に応じて、前記ユーザの認識領域に所定のオブジェクトが重ならないよう提示する制御を行う制御部として機能させるための、プログラム。
3 ネットワーク
10 情報処理装置
20 プロジェクタ
30 カメラ
40 スマートプロジェクタ
50 スマートフォン
100 制御部
101 描き込み画像管理部
102 提示画像生成部
103 提示制御部
104 顔位置認識部
105 状況認識部
110 通信部
120 記憶部

Claims (8)

  1. プロジェクタがオブジェクトを投影する投影領域を含む領域を撮影するカメラによ取得した撮影画像に基づく、
    前記プロジェクタから見て、前記投影領域の一部と重なるように存在するユーザの位置の認識結果と、
    前記ユーザが被写体となる撮影のための前記ユーザの撮影準備動作の検出結果と、
    に応じて、
    前記プロジェクタが
    優先度の高い特定のオブジェクトを、前記ユーザに重ならず、且つ、他のオブジェクトに比べて前記ユーザの近くに投影するように、制御を行う制御部を備え、
    前記制御部は、
    前記投影領域の一部と重なる複数の前記ユーザの存在を認識した場合、
    前記複数のユーザ間の距離に応じて、同一グループか否かを判断し、
    グループ毎に1つの前記特定のオブジェクトを投影するよう制御する、
    情報処理装置。
  2. 前記制御部は、
    前記ユーザの顔の位置を認識し、
    前記ユーザの顔の領域に前記特定のオブジェクトが重ならないよう前記特定のオブジェクトの配置を変更した画像を生成する、
    請求項1に記載の情報処理装置。
  3. 前記制御部は、
    前記ユーザの顔領域の近くに提示した、前記特定のオブジェクトの投影位置を、前記ユーザの顔領域の移動に追従させる制御を行う、請求項2に記載の情報処理装置。
  4. 前記制御部は、
    前記ユーザの撮影準備動作として、前記ユーザによる自撮り動作を検出する、請求項1~3のいずれか1項に記載の情報処理装置。
  5. 前記制御部は、
    前記撮影画像に基づき、前記ユーザの顔の向きを認識し、
    前記ユーザの撮影準備動作として、前記ユーザが前記投影領域と正対する方向を向いたことを検出する、請求項1~4のいずれか1項に記載の情報処理装置。
  6. 前記制御部は、
    前記ユーザの撮影準備動作として、前記撮影画像から、第1のユーザを被写体として撮影しようとする第2のユーザを検出する、請求項1~5のいずれか1項に記載の情報処理装置。
  7. プロセッサが、
    プロジェクタがオブジェクトを投影する投影領域を含む領域を撮影するカメラによ取得した撮影画像に基づく、
    前記プロジェクタから見て、前記投影領域の一部と重なるように存在するユーザの位置の認識結果と、
    前記ユーザが被写体となる撮影のための前記ユーザの撮影準備動作の検出結果と、
    に応じて、
    前記プロジェクタが
    優先度の高い特定のオブジェクトを、前記ユーザに重ならず、且つ、他のオブジェクトに比べて前記ユーザの近くに投影するように、制御を行うことを含み、
    前記投影領域の一部と重なる複数の前記ユーザの存在を認識した場合、
    前記複数のユーザ間の距離に応じて、同一グループか否かを判断し、
    グループ毎に1つの前記特定のオブジェクトを投影するよう制御する、
    情報処理方法。
  8. コンピュータを、
    プロジェクタがオブジェクトを投影する投影領域を含む領域を撮影するカメラによ取得した撮影画像に基づく、
    前記プロジェクタから見て、前記投影領域の一部と重なるように存在するユーザの位置の認識結果と、
    前記ユーザが被写体となる撮影のための前記ユーザの撮影準備動作の検出結果と、
    に応じて、
    前記プロジェクタが
    優先度の高い特定のオブジェクトを、前記ユーザに重ならず、且つ、他のオブジェクトに比べて前記ユーザの近くに投影するように、制御を行う制御部として機能させるための、プログラムであって、
    前記制御部は、
    前記投影領域の一部と重なる複数の前記ユーザの存在を認識した場合、
    前記複数のユーザ間の距離に応じて、同一グループか否かを判断し、
    グループ毎に1つの前記特定のオブジェクトを投影するよう制御する、
    プログラム。
JP2020558140A 2018-11-21 2019-10-07 情報処理装置、情報処理方法、およびプログラム Active JP7424309B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018217959 2018-11-21
JP2018217959 2018-11-21
PCT/JP2019/039422 WO2020105299A1 (ja) 2018-11-21 2019-10-07 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2020105299A1 JPWO2020105299A1 (ja) 2021-10-21
JP7424309B2 true JP7424309B2 (ja) 2024-01-30

Family

ID=70774231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020558140A Active JP7424309B2 (ja) 2018-11-21 2019-10-07 情報処理装置、情報処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US11721308B2 (ja)
JP (1) JP7424309B2 (ja)
WO (1) WO2020105299A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247888A (ja) 2011-05-26 2012-12-13 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2014106837A (ja) 2012-11-29 2014-06-09 Sony Corp 表示制御装置、表示制御方法および記録媒体
JP2015215720A (ja) 2014-05-09 2015-12-03 コニカミノルタ株式会社 画像表示撮影システム、撮影装置、表示装置、画像の表示および撮影の方法、およびコンピュータープログラム
JP2017090819A (ja) 2015-11-16 2017-05-25 フリュー株式会社 写真シール作成装置および写真シール作成方法
US20180310046A1 (en) 2017-04-24 2018-10-25 Matthew Cullen Wearable Display Device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9720587B2 (en) * 2011-07-11 2017-08-01 Kddi Corporation User interface device enabling input motions by finger touch in different modes, and method and program for recognizing input motion
WO2015098189A1 (ja) 2013-12-27 2015-07-02 ソニー株式会社 表示制御装置、表示制御方法及びプログラム
KR102209745B1 (ko) 2014-03-18 2021-01-29 광운대학교 산학협력단 광고 및 쇼핑 등 정보를 표시하기 위하여 사용자의 투영 영상 인식을 통한 미러 디스플레이의 정보 표시 장치 및 방법
KR20180017638A (ko) 2016-08-10 2018-02-21 엘지전자 주식회사 이동단말기 및 그 제어방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012247888A (ja) 2011-05-26 2012-12-13 Sony Corp 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP2014106837A (ja) 2012-11-29 2014-06-09 Sony Corp 表示制御装置、表示制御方法および記録媒体
JP2015215720A (ja) 2014-05-09 2015-12-03 コニカミノルタ株式会社 画像表示撮影システム、撮影装置、表示装置、画像の表示および撮影の方法、およびコンピュータープログラム
JP2017090819A (ja) 2015-11-16 2017-05-25 フリュー株式会社 写真シール作成装置および写真シール作成方法
US20180310046A1 (en) 2017-04-24 2018-10-25 Matthew Cullen Wearable Display Device

Also Published As

Publication number Publication date
JPWO2020105299A1 (ja) 2021-10-21
US20220005442A1 (en) 2022-01-06
US11721308B2 (en) 2023-08-08
WO2020105299A1 (ja) 2020-05-28

Similar Documents

Publication Publication Date Title
CN107426469B (zh) 智能照明装置的控制方法
CN105027033B (zh) 用于选择扩增现实对象的方法、装置和计算机可读媒体
US10360715B2 (en) Storage medium, information-processing device, information-processing system, and avatar generating method
JP2017532922A (ja) 画像撮影方法及び装置
TW201940953A (zh) 拍攝方法、裝置、智慧型裝置及儲存媒體
CN105705993A (zh) 利用面部检测来控制摄像机
CN106575027A (zh) 摄像装置及其被摄体跟踪方法
JP2010004118A (ja) デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
CN109981944A (zh) 电子装置及其控制方法
JP6392945B1 (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
CN111640165A (zh) Ar合影图像的获取方法、装置、计算机设备及存储介质
CN112702521A (zh) 图像拍摄方法及装置、电子设备、计算机可读存储介质
KR102228663B1 (ko) 촬영 가이드 제공 방법 및 이를 수행하는 시스템
EP2939411B1 (en) Image capture
JP7424309B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6410427B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20150341564A1 (en) Image editing method and electronic device using the same
Hakoda et al. Eye tracking using built-in camera for smartphone-based HMD
CN113302906B (zh) 图像处理设备、图像处理方法和存储介质
JP2016081428A (ja) 情報端末、情報処理装置、およびプログラム
JP5910639B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
CN113891002B (zh) 拍摄方法及装置
JP2020101897A (ja) 情報処理装置、情報処理方法及びプログラム
JP2019021324A (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
CN104156138B (zh) 拍摄控制方法及拍摄控制装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240101

R151 Written notification of patent or utility model registration

Ref document number: 7424309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151