JP2016066369A - 情報処理装置、方法およびプログラム - Google Patents
情報処理装置、方法およびプログラム Download PDFInfo
- Publication number
- JP2016066369A JP2016066369A JP2015239206A JP2015239206A JP2016066369A JP 2016066369 A JP2016066369 A JP 2016066369A JP 2015239206 A JP2015239206 A JP 2015239206A JP 2015239206 A JP2015239206 A JP 2015239206A JP 2016066369 A JP2016066369 A JP 2016066369A
- Authority
- JP
- Japan
- Prior art keywords
- display
- content
- user
- display direction
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B66—HOISTING; LIFTING; HAULING
- B66B—ELEVATORS; ESCALATORS OR MOVING WALKWAYS
- B66B3/00—Applications of devices for indicating or signalling operating conditions of elevators
- B66B3/002—Indicators
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】表示方向に応じて表示内容を異ならせることが可能な表示装置に接続される情報処理装置に、表示装置を視認可能な範囲にある対象物の位置情報を取得する位置情報取得部32と、位置情報に基づいて、表示装置における第一の部分領域を対象物の位置から見た場合に視認可能な第一の表示方向、および表示装置における第二の部分領域を対象物の位置から見た場合に視認可能な第二の表示方向を決定する表示方向決定部38と、表示装置にコンテンツを表示させる表示制御部39を備える。第一の部分領域においては第一の表示方向にコンテンツを表示させ、第二の部分領域においては第二の表示方向にコンテンツを表示させる。
【選択図】図17
Description
第一の部分領域を前記対象物の位置から見た場合に視認可能な第一の表示方向、および前記表示装置における第二の部分領域を前記対象物の位置から見た場合に視認可能な第二の表示方向を決定する表示方向決定手段と、前記表示装置にコンテンツを表示させる表示制御手段であって、前記第一の部分領域においては前記第一の表示方向に前記コンテンツを表示させ、前記第二の部分領域においては前記第二の表示方向に前記コンテンツを表示させる表示制御手段と、を備える情報処理装置である。
図1は、本実施形態に係る情報処理装置1のハードウェア構成の概略を示す図である。情報処理装置1は、CPU(Central Processing Unit)11と、RAM(Random Access Memory)12と、ROM(Read Only Memory)13と、補助記憶装置19と、指向性表示装置14と、スピーカ15と、ネットワークインターフェース16と、センサユニット20と、が電気的に接続された情報処理装置である。また、情報処理装置1は、ネットワークインターフェース16を介して、操作対象(エレベータ等)の制御装置に接続される。
図3は、本実施形態において、可視光(RGB)および赤外線の少なくとも一方を撮像する単眼カメラを含むセンサユニット20が用いられる場合の、センサユニット20の配置の例を示す図である。情報処理装置1は、単眼カメラから取得された画像情報に基づいて、顔認識技術を含む画像解析技術や視線認識技術を用いたユーザ位置情報の取得、動画像解析技術を用いたジェスチャ検出、等を行うことが出来る。
図4は、本実施形態において、可視光および赤外線の少なくとも一方を撮像するステレオカメラを含むセンサユニット20が用いられる場合の、センサユニット20の配置の例を示す図である。このようなセンサユニット20は、単眼カメラと同様の機能を備える他、ステレオカメラで撮像された画像を比較し、視差に基づいて対象までの距離を算出する方法(受動ステレオ法)によって、所謂深度センサとして用いることが可能である。深度センサを用いた場合、深度情報を得ることが出来る。なお、深度情報は、撮像された対象までの距離(深度)を含む情報であり、受動ステレオ法、構造化光投影法、往復伝搬時間法、等を用いることによって、取得することが出来る。
図5は、本実施形態において、赤外構造化光照射装置(赤外線エミッター)と、赤外線カメラとの組み合わせを含むセンサユニット20が用いられる場合の、センサユニット20の配置の例を示す図である。このようなセンサユニット20は、単眼カメラと同様の機能を備える他、赤外構造化光照射装置から照射された赤外構造化光の反射光を赤外線カメラによって撮像する方法(構造化光投影法)や、赤外線エミッターから照射された赤外線パルスの反射光を赤外線カメラによって撮像し、照射された赤外線パルスのTOF(Time Of Flight:飛行時間)を計測する方法(往復伝搬時間法)によって、所謂深度センサとして用いることが可能である。また、照射された赤外線の、ユーザの眼球からの反射光をカメラによって撮像し、この撮像結果に基づいてユーザの視線がカメラの撮像視点を向いているか否かを判定することで、視線認識を行うことも可能である。
上記説明したような指向性表示装置14では、ユーザの頭や眼等の位置(視点位置)に合わせてユーザに所望のコンテンツを視認させるために、センサユニット20を用いて視点位置が認識され、視点位置に対応した表示方向毎に、当該視点位置から視認させたいコンテンツが出力されることが好ましい。なお、ここで「表示方向」とは、本発明に係る表示装置において、視認する位置に応じて視認させる内容を異ならせるような表示を行う場合に、表示装置の表示領域から見て、当該内容を視認できる対象物が存在する方向である。このような表示方向は、視点位置の位置情報に基づいて、予め用意された計算式やテーブルを用いて表示方向を取得されてもよいし、視点位置の位置情報、指向性表示装置14の位置およびセンサの位置の相対的な位置関係から幾何学計算によって算出されてもよい。
報を参照することで、表示の内容またはタイミングに基づいて、該検知器9が設置された位置から表示を認識可能な表示方向を取得してもよい。
図11は、本実施形態に係る情報処理装置1の機能構成の概略を示す図である。本実施形態に係る情報処理装置1は、CPU11が、RAM12に展開された各種プログラムを解釈および実行することで、画像情報取得部31と、位置情報取得部32と、ユーザ情報保持部33と、ユーザ情報登録部34と、ユーザ情報更新部35と、ユーザ情報削除部36と、ユーザ操作検出部37と、表示方向決定部38と、表示制御部39と、を備える情報処理装置1として機能する。また、本実施形態では、これらの機能がいずれも汎用のCPU11によって実行される例について説明しているが、これらの機能は、その一部または全部が、1または複数の専用のプロセッサによって実現されてもよい。
可能な範囲にある複数の対象物(例えば、ユーザの頭部またはユーザの眼)の位置情報を取得する。例えば、ユーザ位置情報は、画像情報に含まれる深度情報を参照することによって取得されてもよい。ユーザ位置情報の取得に深度情報を用いることで、ユーザ同士の奥行方向の前後関係を容易に把握することが出来る。なお、本実施形態では、ユーザ位置情報は画像情報の解析によって取得することとしているが、ユーザ位置情報の取得にはその他の方法が採用されてもよい。ユーザ位置情報は、例えば、指向性表示装置14を視認可能な範囲に設置されたセンサーマットや、音波を用いた位置検出、等を用いて取得されてもよい。
施形態においてフローチャートを用いて説明される処理の具体的な内容および順序等は、本発明を実施する上での一例である。具体的な処理内容および順序等は、実施の形態に応じて適宜選択されることが好ましい。
101において取得された画像情報に基づいて、撮像画像における、ユーザが撮像されている領域(換言すれば、撮像画像中のユーザのシルエット部分)を取得する。ユーザ領域の取得には、一般的に用いられている画像解析技術を用いることが可能であり、またどのような方式の画像解析技術が用いられてもよい。このため、ユーザ領域の取得の詳細については説明を省略する。例えば、位置情報取得部32は、人型のシルエットを予め保持しておき、画像内からこのシルエットに近似するエッジを抽出することで、ユーザ領域を取得することができる。位置情報取得部32は、取得されたユーザ領域を、撮像画像に対応する情報にマッピングすることで、ユーザ領域マップを生成する。例えば、ユーザ領域マップは、撮像画像と同サイズの2値画像において、ユーザが撮像されている画素を1、ユーザが撮像されていない画素を0でマッピングした情報である。
れた全てのユーザ情報について更新または登録が完了している場合、処理はステップS109へ進む。更新または登録が完了していないユーザ情報がある場合、処理はステップS105へ進む。即ち、本フローチャートに示された処理によれば、ステップS103およびステップS104において取得された全てのユーザ情報について更新または登録が終了するまで、ステップS105からステップS108に示された処理が繰り返される。
39は、ユーザ毎に、ステップS202で決定された表示方向に、当該ユーザのためのコンテンツを出力する(ステップS204)。その後、本フローチャートに示された処理は終了する。
本実施形態に開示されているような指向性表示装置14において、複数のユーザに対して互いに異なるコンテンツが表示されている場合、あるユーザが移動して他のユーザのためのコンテンツを閲覧可能な視点位置の範囲に入る(換言すれば、他のユーザと同一の表示方向の範囲に入る)可能性がある。
、優先制御を伴う指向性表示を行うこととしてもよい。本実施形態に係る優先制御を伴う指向性表示では、コンテンツの閲覧権限を持たないユーザに対する当該コンテンツの表示が許可されない。
合に、レベル3のコンテンツ表示方向にレベル1のコンテンツが表示されるように、表示されるコンテンツが変更される様子が示されている。
図22は、指向性表示装置14における表示方向の例を示す図である。図22に示す指向性表示装置14は、表示方向1から5の5方向に互いに異なるコンテンツを出力可能である。このような指向性表示装置14において、コンテンツが表示される表示領域全体のサイズが、表示領域からユーザまでの距離に対して無視できないほど大きい場合、表示領域上の各部分領域(a)〜(e)からユーザへの方向(角度)が互いに大きく異なってしまう。このため、このような指向性表示装置14では、ユーザが表示領域に近付いた場合、ユーザに対して一貫した表示を行うことができない事態が生じ得る。以降、表示領域上の各部分領域からユーザへの方向(部分領域の面に対する角度)が互いに異なってしまうためにユーザの視認する表示方向が異なってしまうことを、「表示領域視差」と称する。
報および表示方向が関連付けられるが、表示領域視差を考慮したキャリブレーションテーブルでは、位置情報および表示方向に加え、更に部分領域の識別子が関連付けられる。なお、表示領域視差を考慮しないキャリブレーションテーブルでは、位置情報は、所定の基準(例えば、センサユニット20または指向性表示装置14)からの方向のみを表すパラメータが採用されてよいが、表示領域視差を考慮したキャリブレーションテーブルでは、位置情報は、方向のみを表すパラメータでは足りない。このため、表示領域視差を考慮したキャリブレーションテーブルでは、位置情報として、所定の基準からの距離も判別可能なパラメータが採用される。
次に、表示領域視差を考慮した指向性表示について説明する。
意されたコンテンツを、RAM12または補助記憶装置19から取得する(ステップS503)。更に、表示制御部39は、ユーザ毎に、ステップS502で決定された「部分領域と表示方向との組合せ」に、当該ユーザのためのコンテンツを出力する(ステップS504)。その後、本フローチャートに示された処理は終了する。
θ = arctan((x−Δd)/z)
以下、本実施形態に係る情報処理装置1を、様々な用途に適用する際の具体例について説明する。以下に示される応用例は例示であって、本発明の適用対象は、以下に説明する例に限定されない。
本実施形態に係る情報処理装置1が接続される制御装置をエレベータの制御装置とすることで、情報処理装置1を、エレベータでの行先階の指定操作や、扉の開閉操作等を処理するためのヒューマンインターフェース装置とすることが出来る。
本実施形態に係る情報処理装置1が接続される制御装置をカーナビゲーション装置/オーディオ装置の制御装置とすることで、情報処理装置1を、カーナビゲーション装置/オーディオ装置での選曲操作や音量操作、ミュート操作、等を処理するためのヒューマンインターフェース装置とすることが出来る。
本実施形態に係る情報処理装置1が接続される制御装置を情報KIOSK端末やセルフレジ端末の制御装置とすることで、情報処理装置1を、情報KIOSK端末やセルフレジ端末での操作を処理するためのヒューマンインターフェース装置とすることが出来る。
また、本実施形態に係る情報処理装置1が接続される制御装置を家電の制御装置とすることで、情報処理装置1を、家電での操作を処理するためのヒューマンインターフェース装置とすることが出来る。
14 指向性表示装置
20 センサユニット
Claims (9)
- 表示方向に応じて表示内容を異ならせることが可能な表示装置に接続される情報処理装置であって、
前記表示装置を視認可能な範囲にある対象物の位置情報を取得する位置情報取得手段と、
前記位置情報に基づいて、前記表示装置における第一の部分領域を前記対象物の位置から見た者に表示内容を視認させることが可能な第一の表示方向、および前記表示装置における第二の部分領域を前記対象物の位置から見た者に表示内容を視認させることが可能な第二の表示方向を決定する表示方向決定手段と、
前記表示装置にコンテンツを表示させる表示制御手段であって、前記第一の部分領域においては前記第一の表示方向に前記コンテンツを表示させ、前記第二の部分領域においては前記第二の表示方向に前記コンテンツを表示させる表示制御手段と、
を備える情報処理装置。 - 前記表示装置を視認可能な範囲内の位置と、前記部分領域毎の、該部分領域を該位置から見た者に表示内容を視認させることが可能な表示方向との関係を有する関係情報を保持する記憶装置に接続され、
前記表示方向決定手段は、前記位置情報を用いた前記関係情報の検索結果に基づいて、前記第一の部分領域または前記第二の部分領域を前記対象物から見た者に表示内容を視認させることが可能な表示方向を決定する、
請求項1に記載の情報処理装置。 - 前記位置情報取得手段は、第一の対象物の位置情報および前記第一の対象物とは異なる第二の対象物の位置情報を取得し、
前記表示方向決定手段は、前記対象物毎の位置情報に基づいて、前記対象物毎に、前記第一の表示方向および前記第二の表示方向を決定し、
前記表示制御手段は、
前記第一の部分領域においては、前記第一の対象物に係る前記第一の表示方向に前記第一の対象物のためのコンテンツを表示させ、前記第二の対象物に係る前記第一の表示方向に前記第二の対象物のためのコンテンツを表示させ、
前記第二の部分領域においては、前記第一の対象物に係る前記第二の表示方向に前記第一の対象物のためのコンテンツを表示させ、前記第二の対象物に係る前記第二の表示方向に前記第二の対象物のためのコンテンツを表示させる、
請求項1または2に記載の情報処理装置。 - 前記対象物は、ユーザの頭部またはユーザの眼である、
請求項1から3の何れか一項に記載の情報処理装置。 - 前記第一の対象物はユーザの左眼であり、前記第二の対象物はユーザの右眼である、
請求項3に記載の情報処理装置。 - 表示方向に応じて表示内容を異ならせることが可能な表示装置に接続されるコンピュータが、
前記表示装置を視認可能な範囲にある対象物の位置情報を取得する位置情報取得ステップと、
前記位置情報に基づいて、前記表示装置における第一の部分領域を前記対象物の位置から見た者に表示内容を視認させることが可能な第一の表示方向、および前記表示装置における第二の部分領域を前記対象物の位置から見た者に表示内容を視認させることが可能な第二の表示方向を決定する表示方向決定ステップと、
前記表示装置にコンテンツを表示させる表示制御ステップであって、前記第一の部分領域においては前記第一の表示方向に前記コンテンツを表示させ、前記第二の部分領域においては前記第二の表示方向に前記コンテンツを表示させる表示制御ステップと、
を実行する情報処理方法。 - 前記位置情報取得ステップでは、第一の対象物の位置情報および前記第一の対象物とは異なる第二の対象物の位置情報が取得され、
前記表示方向決定ステップでは、前記対象物毎の位置情報に基づいて、前記対象物毎に、前記第一の表示方向および前記第二の表示方向が決定され、
前記表示制御ステップでは、
前記第一の部分領域においては、前記第一の対象物に係る前記第一の表示方向に前記第一の対象物のためのコンテンツを表示させ、前記第二の対象物に係る前記第一の表示方向に前記第二の対象物のためのコンテンツを表示させ、
前記第二の部分領域においては、前記第一の対象物に係る前記第二の表示方向に前記第一の対象物のためのコンテンツを表示させ、前記第二の対象物に係る前記第二の表示方向に前記第二の対象物のためのコンテンツを表示させる、
請求項6に記載の情報処理方法。 - 表示方向に応じて表示内容を異ならせることが可能な表示装置に接続されるコンピュータを、
前記表示装置を視認可能な範囲にある対象物の位置情報を取得する位置情報取得手段と、
前記位置情報に基づいて、前記表示装置における第一の部分領域を前記対象物の位置から見た者に表示内容を視認させることが可能な第一の表示方向、および前記表示装置における第二の部分領域を前記対象物の位置から見た者に表示内容を視認させることが可能な第二の表示方向を決定する表示方向決定手段と、
前記表示装置にコンテンツを表示させる表示制御手段であって、前記第一の部分領域においては前記第一の表示方向に前記コンテンツを表示させ、前記第二の部分領域においては前記第二の表示方向に前記コンテンツを表示させる表示制御手段と、
として機能させるためのプログラム。 - 前記位置情報取得手段は、第一の対象物の位置情報および前記第一の対象物とは異なる第二の対象物の位置情報を取得し、
前記表示方向決定手段は、前記対象物毎の位置情報に基づいて、前記対象物毎に、前記第一の表示方向および前記第二の表示方向を決定し、
前記表示制御手段は、
前記第一の部分領域においては、前記第一の対象物に係る前記第一の表示方向に前記第一の対象物のためのコンテンツを表示させ、前記第二の対象物に係る前記第一の表示方向に前記第二の対象物のためのコンテンツを表示させ、
前記第二の部分領域においては、前記第一の対象物に係る前記第二の表示方向に前記第一の対象物のためのコンテンツを表示させ、前記第二の対象物に係る前記第二の表示方向に前記第二の対象物のためのコンテンツを表示させる、
請求項8に記載のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015239206A JP6131312B2 (ja) | 2015-12-08 | 2015-12-08 | 情報処理装置、方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015239206A JP6131312B2 (ja) | 2015-12-08 | 2015-12-08 | 情報処理装置、方法およびプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014519719A Division JP5889408B2 (ja) | 2012-06-04 | 2012-06-04 | 情報処理装置、方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016066369A true JP2016066369A (ja) | 2016-04-28 |
JP6131312B2 JP6131312B2 (ja) | 2017-05-17 |
Family
ID=55805582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015239206A Expired - Fee Related JP6131312B2 (ja) | 2015-12-08 | 2015-12-08 | 情報処理装置、方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6131312B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114671311A (zh) * | 2020-12-24 | 2022-06-28 | 三菱电机株式会社 | 电梯的显示控制装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08242470A (ja) * | 1995-02-09 | 1996-09-17 | Sharp Corp | 自動立体表示装置および自動立体表示装置を制御する方法 |
JP2007503606A (ja) * | 2003-08-26 | 2007-02-22 | シーリアル、テクノロジーズ、ゲーエムベーハー | 自動立体マルチユーザ・ディスプレイ |
JP2007310002A (ja) * | 2006-05-16 | 2007-11-29 | Sony Corp | 表示装置、表示方法及び表示プログラム |
JP2008293011A (ja) * | 1996-01-22 | 2008-12-04 | 3Ality Inc | 3次元観察および投影用システム |
JP2009169352A (ja) * | 2008-01-21 | 2009-07-30 | Sharp Corp | 情報処理装置 |
JP2009192552A (ja) * | 2008-02-12 | 2009-08-27 | Sharp Corp | 映像表示装置 |
US20100253766A1 (en) * | 2009-04-01 | 2010-10-07 | Mann Samuel A | Stereoscopic Device |
JP2010259017A (ja) * | 2009-04-28 | 2010-11-11 | Nikon Corp | 表示装置、表示方法、および表示プログラム |
JP2011101366A (ja) * | 2009-11-04 | 2011-05-19 | Samsung Electronics Co Ltd | アクティブサブピクセルレンダリング方式に基づく高密度多視点映像表示システムおよび方法 |
US20120019516A1 (en) * | 2010-07-26 | 2012-01-26 | Samsung Electronics Co., Ltd. | Multi-view display system and method using color consistent selective sub-pixel rendering |
JP4937424B1 (ja) * | 2010-11-22 | 2012-05-23 | 株式会社東芝 | 立体画像表示装置および方法 |
-
2015
- 2015-12-08 JP JP2015239206A patent/JP6131312B2/ja not_active Expired - Fee Related
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08242470A (ja) * | 1995-02-09 | 1996-09-17 | Sharp Corp | 自動立体表示装置および自動立体表示装置を制御する方法 |
JP2008293011A (ja) * | 1996-01-22 | 2008-12-04 | 3Ality Inc | 3次元観察および投影用システム |
JP2007503606A (ja) * | 2003-08-26 | 2007-02-22 | シーリアル、テクノロジーズ、ゲーエムベーハー | 自動立体マルチユーザ・ディスプレイ |
JP2007310002A (ja) * | 2006-05-16 | 2007-11-29 | Sony Corp | 表示装置、表示方法及び表示プログラム |
JP2009169352A (ja) * | 2008-01-21 | 2009-07-30 | Sharp Corp | 情報処理装置 |
JP2009192552A (ja) * | 2008-02-12 | 2009-08-27 | Sharp Corp | 映像表示装置 |
US20100253766A1 (en) * | 2009-04-01 | 2010-10-07 | Mann Samuel A | Stereoscopic Device |
JP2010259017A (ja) * | 2009-04-28 | 2010-11-11 | Nikon Corp | 表示装置、表示方法、および表示プログラム |
JP2011101366A (ja) * | 2009-11-04 | 2011-05-19 | Samsung Electronics Co Ltd | アクティブサブピクセルレンダリング方式に基づく高密度多視点映像表示システムおよび方法 |
US20120019516A1 (en) * | 2010-07-26 | 2012-01-26 | Samsung Electronics Co., Ltd. | Multi-view display system and method using color consistent selective sub-pixel rendering |
JP4937424B1 (ja) * | 2010-11-22 | 2012-05-23 | 株式会社東芝 | 立体画像表示装置および方法 |
WO2012070103A1 (ja) * | 2010-11-22 | 2012-05-31 | 株式会社 東芝 | 立体画像表示装置および方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114671311A (zh) * | 2020-12-24 | 2022-06-28 | 三菱电机株式会社 | 电梯的显示控制装置 |
CN114671311B (zh) * | 2020-12-24 | 2023-12-26 | 三菱电机株式会社 | 电梯的显示控制装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6131312B2 (ja) | 2017-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5807115B2 (ja) | 情報処理装置、方法およびプログラム | |
JP5889408B2 (ja) | 情報処理装置、方法およびプログラム | |
JP5860144B2 (ja) | 情報処理装置、方法およびプログラム | |
US9030465B2 (en) | Vehicle user interface unit for a vehicle electronic device | |
US9436273B2 (en) | Information processing device, method and computer-readable non-transitory recording medium | |
US12033286B2 (en) | Augmented reality display device and augmented reality display method | |
US11244145B2 (en) | Information processing apparatus, information processing method, and recording medium | |
US11050997B2 (en) | Dynamic display system capable of generating images corresponding to positions of users | |
KR20160113666A (ko) | 오디오 탐색 지원 | |
CN102300111A (zh) | 立体显示设备和立体显示设备的控制方法 | |
US20200225814A1 (en) | Information processing apparatus, control method, and program | |
TW201351210A (zh) | 操作區的決定方法與系統 | |
JP6131312B2 (ja) | 情報処理装置、方法およびプログラム | |
KR101414362B1 (ko) | 영상인지 기반 공간 베젤 인터페이스 방법 및 장치 | |
KR101247316B1 (ko) | 감시시스템 | |
JP6467039B2 (ja) | 情報処理装置 | |
JP2014170367A (ja) | 物体検出装置、物体検出方法、物体検出システム及びプログラム | |
JP2019032713A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2011180690A (ja) | 表示制御装置、表示制御方法、および表示制御プログラム | |
JP2017134492A (ja) | 画像生成装置、画像生成方法、及び画像生成プログラム | |
WO2023040551A9 (zh) | 一种在显示屏上显示图像的方法、电子设备与装置 | |
GB2627426A (en) | An imaging method and an imaging device | |
KR20140118063A (ko) | 멀티미디어 콘텐츠 시각화 조정을 위한 사용자 인터페이스 장치 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6131312 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |