JP4743305B2 - 境界定義による機能制御方法、境界定義による機能制御システム、境界定義による機能制御サーバ及びプログラム - Google Patents

境界定義による機能制御方法、境界定義による機能制御システム、境界定義による機能制御サーバ及びプログラム Download PDF

Info

Publication number
JP4743305B2
JP4743305B2 JP2009083101A JP2009083101A JP4743305B2 JP 4743305 B2 JP4743305 B2 JP 4743305B2 JP 2009083101 A JP2009083101 A JP 2009083101A JP 2009083101 A JP2009083101 A JP 2009083101A JP 4743305 B2 JP4743305 B2 JP 4743305B2
Authority
JP
Japan
Prior art keywords
boundary
function control
information
user
boundary line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009083101A
Other languages
English (en)
Other versions
JP2010183554A (ja
Inventor
雄一郎 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009083101A priority Critical patent/JP4743305B2/ja
Priority to CN2010100030210A priority patent/CN101800836B/zh
Priority to US12/683,209 priority patent/US8766763B2/en
Publication of JP2010183554A publication Critical patent/JP2010183554A/ja
Application granted granted Critical
Publication of JP4743305B2 publication Critical patent/JP4743305B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/163Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing by receiver means only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4524Management of client data or end-user data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Remote Sensing (AREA)
  • Databases & Information Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Electromagnetism (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Environmental Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Details Of Television Systems (AREA)
  • Selective Calling Equipment (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、境界定義による機能制御方法、境界定義による機能制御システム、境界定義による機能制御サーバ及びプログラムに関する。
従来、例えば下記の非特許文献1に記載された手法、QRコードなどの2次元バーコード技術を使用するシステム等において、バーコードの情報に応じて端末を制御する技術が知られている。また、投影により表示を行うものにおいて、下記の非特許文献2のように、投影範囲の形状を操作する技術が知られている。
また、従来、例えば下記の特許文献1に記載されているように、遮音された空間の外部で放音された必要な音声だけを正しく認識し、それ以外の時には静粛性を保つことを目的とした技術が知られている。
特開2006−93792号公報 特開2006−339937号公報
Rekimoto J., Ayatsuka Y. CyberCode:Designing Augmented Reality Environments with Visual Tags. In Proc. of DARE2000. Cotting D., Gross M. InteractiveEnvironment-Aware Display Bubbles. In Proc. of UIST 2006.
しかしながら、非特許文献1に記載された技術、2次元バーコード技術を使用するシステム等は、カメラによってバーコードが撮影できる範囲でのみ使用が可能であり、使用状況が制限されるといった制約がある。また、これらシステムは、ユーザ側でバーコードなどの設定を変更して、これによって端末の制御を変更する等の柔軟な対応を想定したものではない。また、非特許文献2に記載された技術は、投影範囲の形状の操作自体を目的とするものであり、形状の操作によって端末の制御を変更すること等を想定したものではなかった。
また、近年におけるオフィス空間などの設計では、従業員が個人作業からグループ作業、またはその逆へと簡単に移行できるよう、個人スペースと共同スペースとの間に障壁を多く設けないことが主流となりつつある。一方、このようなオフィスでは、音声がほとんど遮断されないため、一人で集中して作業を行いたい場合や数人で静かに話しをしたい場合などには不便が生じることが想定される。
上記の特許文献1に記載された技術は、外部から屋内の空間に入る音声を必要に応じて取得することを想定したものであり、物理的な壁が存在しない空間内において個々のユーザが所望の音声を適宜に取得することを想定したものではなかった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、任意の物理的な空間内において、ユーザが電子機器の機能制御を簡便に行うことが可能な、新規かつ改良された境界定義による機能制御方法、境界定義による機能制御システム、境界定義による機能制御サーバ及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、任意の物理的な空間を仮想的に分離するための境界線を設定するステップと、前記境界線の位置、前記境界線で構成される閉ループの形状および大きさのいずれか一部またはその全てに基づいて、電子機器の所定の機能を制御するステップと、を備える、境界定義による機能制御方法が提供される。
また、前記境界線を設定するステップは、前記任意の物理的な空間に配置された複数の位置認識用デバイスの位置をそれぞれ取得するステップと、複数の前記位置認識用デバイスの位置に基づいて、前記位置認識用デバイスを結ぶ前記境界線を算出するステップと、
を有するものであってもよい。
また、前記位置認識用デバイスの位置を取得するステップにおいて、前記位置認識用デバイスの位置とともに前記位置認識用デバイスの方向を取得し、前記境界線を算出するステップにおいて、前記位置認識用デバイスの位置及び方向に基づいて3次ベジエ曲線を算出するものであってもよい。
また、前記所定の機能を制御するステップにおいて、前記境界線の位置とユーザによって操作される前記電子機器との位置関係に応じて、当該電子機器によって実現される機能を制御するものであってもよい。
また、前記境界線を前記任意の物理的な空間内に表示するステップを更に備えるものであってもよい。
また、前記表示するステップにおいて、閉ループを構成する前記境界線を表示するとともに、前記閉ループ内に所定のアプリケーションによる機能を表示するステップを備え、前記所定の機能を制御するステップにおいて、前記閉ループの形状又は大きさに基づいて、当該閉ループ内に表示されるアプリケーションの機能を制御するものであってもよい。
また、前記任意の物理的な空間内で発せられた音声情報を取得するステップと、前記任意の物理的な空間内に存在する、前記電子機器としての携帯情報端末の位置を取得するステップと、前記境界線による境界に対して前記音声情報を取得した位置と同じ側に存在する前記携帯情報端末に、前記音声情報を送信するステップと、を備えるものであってもよい。
また、前記携帯情報端末は、前記任意の物理的な空間内に存在するユーザに装着され、当該ユーザに対して前記音声情報による音声を再生して提供するものであってもよい。
また、前記音声情報を送信するステップの前に、前記音声情報を取得した位置及び送信先の前記携帯情報端末の位置に基づく前記音声情報の3Dミキシングを行うステップを備え、前記音声情報を送信するステップにおいて、3Dミキシングが行われた前記音声情報を送信するものであってもよい。
また、前記音声情報は、前記携帯情報端末が備えるマイクロホンから取得されるものであってもよい。
また、前記位置認識用デバイスは、前記任意の物理的な空間内に配置される物理オブジェクトに設けられるものであってもよい。
また、上記課題を解決するために、本発明の別の観点によれば、所定の機能を制御可能な電子機器と、任意の物理的な空間を仮想的に分離するための境界線を設定する境界線設定部と、前記境界線の位置、前記境界線で構成される閉ループの形状および大きさのいずれか1つまたは複数に基づいて、前記電子機器の所定の機能を制御する機能制御部と、を有する機能制御用サーバと、を備える、境界定義による機能制御システムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、任意の物理的な空間を仮想的に分離するための境界線を設定する境界線設定部と、前記境界線の位置、前記境界線で構成される閉ループの形状および大きさのいずれか1つまたは複数に基づいて、電子機器の所定の機能を制御する機能制御部と、を備える、境界定義による機能制御用サーバが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、任意の物理的な空間を仮想的に分離するための境界線を設定する境界線設定手段、前記境界線の位置、前記境界線で構成される閉ループの形状および大きさのいずれか1つまたは複数に基づいて、電子機器の所定の機能を制御する手段、としてコンピュータを機能させるためのプログラムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、任意の物理的な空間内に存在し、無線通信により音声情報を送受信する携帯情報端末と、前記任意の物理的な空間を仮想的に分離するための境界情報が格納されるデータベースと、前記携帯情報端末から送信された音声情報を取得する音声受信部と、前記携帯情報端末の位置を取得する位置認識部と、前記境界情報による境界に対して前記音声情報を取得した前記携帯情報端末と同じ側に存在する他の前記携帯情報端末に、取得した前記音声情報を送信する音声送信部と、を有する音場境界定義用サーバと、を備える、境界定義による機能制御システムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、任意の物理的な空間を仮想的に分離するための境界情報が格納されるデータベースと、前記任意の空間内で発せられた音声情報を取得する音声受信部と、前記任意の空間内に存在する携帯情報端末の位置を取得する位置認識部と、前記境界情報による境界に対して前記音声情報を取得した位置と同じ側に存在する前記携帯情報端末に、前記音声情報を送信する音声送信部と、を備える、境界定義による機能制御用サーバが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、任意の物理的な空間を仮想的に分離するための境界情報を格納する手段、前記任意の空間内で発せられた音声情報を取得する手段、前記任意の空間内に存在する携帯情報端末の位置を取得する手段、前記境界情報による境界に対して前記音声情報を取得した位置と同じ側に存在する前記携帯情報端末に、前記音声情報を送信する手段、としてコンピュータを機能させるためのプログラムが提供される。
本発明によれば、任意の物理的な空間内において、ユーザが電子機器の機能制御を簡便に行うことが可能となる。
本発明の第1の実施形態に係る境界定義による機能制御システムの構成を示す模式図である。 3次ベジエ曲線の制御点を決定し、これに基づいて3次ベジエ曲線を定義する手法を示す模式図である。 円盤型デバイスによって構築された境界に応じてリモートコントローラによる操作を制御するシステムを示す模式図である。 サーバを中心とするシステムの機能ブロック構成を示す模式図である。 各円盤型デバイスの位置、方向を認識し、各円盤型デバイスによって決定された領域をプロジェクタによって投影するまでの手順を示すフローチャートである。 ユーザによって要求されたサービスを実行する手順を示すフローチャートである。 本発明の第2の実施形態に係る機能制御システムの構成を示す模式図である。 3次ベジエ曲線の制御点を決定し、これに基づいて3次ベジエ曲線を定義する手法を示す模式図である。 ベジエ曲線によって囲まれた領域の内部に所定のアプリケーションを投影した状態を示す模式図である。 サーバを中心とするシステムの機能ブロック構成を示す模式図である。 サーバで行われる処理を示すフローチャートである。 本発明の一実施形態に係る音場境界定義システムの概念を示す模式図である。 本発明の一実施形態に係る音場境界定義システムの構成を示す模式図である。 位置認識用マーカの構成を示す平面図である。 サーバを中心とするシステムの機能ブロック構成を示す模式図である。 サーバの処理を示すフローチャートである。 本発明の第4の実施形態に係る境界定義による機能制御システムの概念を示す模式図である。 第4の実施形態において、サーバを中心とする音場境界定義システム2100の機能ブロック構成を示す模式図である。 本発明の第5の実施形態に係る境界定義による機能制御システムの構成を示す模式図である。 5つの椅子が互いに向かい合って配置されている場合に、仮想的な壁が設定される様子を示す模式図である。 椅子が向かい合って配置されていない場合を示す模式図である。 向かい合って配置された椅子が遠く離れている場合を示す模式図である。 椅子が向かい合って配置されており、且つ、各椅子間の距離が所定値以下の場合に、仮想的な壁が設定された状態を示す模式図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
1.第1の実施形態
(1)第1の実施形態にかかる境界定義による機能制御システムの構成
(2)3次ベジエ曲線の定義方法
(3)3次ベジエ曲線の境界線に応じたリモートコントローラの機能制御
(4)サーバを中心とするシステムの機能ブロック構成
(5)サーバで行われる処理
2.第2の実施形態
(1)第2の実施形態にかかる境界定義による機能制御システムの構成
(2)3次ベジエ曲線の境界線に応じたリモートコントローラの機能制御
(3)サーバを中心とするシステムの機能ブロック構成
(4)サーバで行われる処理
3.第3の実施形態
(1)第3の実施形態にかかる境界定義による音場境界定義システムの概念
(2)第3の実施形態にかかる境界定義による機能制御システムの構成
(3)サーバを中心とする音場境界定義システムの機能ブロック構成
(4)サーバで行われる処理について
(5)環境音の取得について
4.第4の実施形態
(1)第4の実施形態にかかる境界定義による音場境界定義システムの概念
(2)サーバを中心とする境界定義による機能制御システムの機能ブロック構成
5.第5の実施形態
(1)第5の実施形態にかかる境界定義による音場境界定義システムの構成
1.第1の実施形態
[(1)境界定義による機能制御システムの構成]
図1は、本発明の第1の実施形態に係る境界定義による機能制御システム100の構成を示す模式図である。図1に示すように、機能制御システム100は、サーバ200、赤外線カメラ300、プロジェクタ400、円盤型デバイス500を有して構成される。機能制御システム100は、例えば建物の内部の部屋内に構成されるものである。
図1に示すように、円盤型デバイス500は、部屋内の床上に複数配置される。円盤型デバイス500の上面には、複数の赤外線LED500a,500b,500c,500dが配置されている。図1に示すように、赤外線LED500a,500b,500c,500dは、2つの直交する直線L1,L2に沿って配置されている。ここで、赤外線LED500cは、円盤型デバイス500の中心に位置するLEDである。各円盤型デバイス500上の赤外線LED500a,500b,500c,500dの配置はデバイス毎に若干異なる。複数の赤外線LED500a,500b,500cからなる直線L2は各円盤型デバイス500で共通であるが、赤外線LED502dの位置は直線L2の方向に沿って左寄り、右寄りなどデバイス毎に少しずつずらしている。すなわち、直線L1はL2の中心(赤外線LED500cの位置)を通るものには限定されない。このような構成によれば、各円盤型デバイス500の位置と方向だけでなく、赤外線LED500dの直線L2方向の位置に応じて、円盤型デバイス500が「どの」デバイスなのかも判別可能である。これにより、各円盤型デバイス500位置、方向だけでなくID番号も判別可能とされている。判別のプロセスとしては、先ず赤外線カメラ300の画像から直線L2を探し出し、その時点でユーザの位置を赤外線LED500cの位置(直線L2の中点)として一意に決定し、また、方向についてもL2に垂直な2方向のどちらかに絞られる。次に、赤外線LED500dを探し出し、L2との位置関係からユーザの方向が一意に決定され、また、赤外線LED502dの直線L2方向の位置に応じて、「どの」デバイスであるかも判別できる。なお、第2の実施形態で説明している円盤型デバイス500では、アプリケーションの都合上IDの識別が必要ないため、全てのデバイスで同じ再帰性反射材を用いたマーカを搭載している。
また、円盤型デバイス500は、その方向がユーザに対して感覚的に伝わるように、その中心を通る直線を境として明暗の2色に塗り分けられている。ここで、円盤型デバイス500の方向とは、円盤型デバイス500の中心から、2色の領域のうちの明るい側の領域を等面積に分割する方向に伸びる半直線の向きとする。
一方、赤外線カメラ300は、部屋内の上部、例えば天井に設置されている。赤外線カメラ300は、床面を撮影して各円盤型デバイス500の赤外線LED500a,500b,500c,500dの画像を取得する。赤外線カメラ300で取得された画像のデータは、サーバ200へ送られる。
サーバ200は、赤外線カメラ300から送られた画像データに画像処理を施して、各円盤型デバイス500の位置及び円盤型デバイス500の方向を読取る。ここで、各円盤型デバイス500の位置は、中心に位置する赤外線LED500cの位置から取得することができる。また、例えば直線L1を2色の領域の境界線と一致させておくことにより、図1において、直線L1の左側が2色の領域のうちの明るい側の領域であるため、円盤型デバイス500の方向を取得することができる。
[(2)3次ベジエ曲線の定義方法]
サーバ200は、各円盤型デバイス500の位置及び方向を取得すると、これらの情報から、3次ベジエ曲線の制御点を決定し、3次ベジエ曲線を定義する。図2(A)〜図2(C)は、3次ベジエ曲線の制御点を決定し、これに基づいて3次ベジエ曲線を定義する手法を示す模式図である。ここで、制御点として扱われるのは、図2に示すように、円盤型デバイス500の中心点C1と、円盤型デバイス500の方向を0とした場合に中心点C1に対して90°の方向に位置する点C2と、円盤型デバイス500の方向を0とした場合に中心点C1に対して270°の方向に位置する点C3の合計3点である。C1からC2までの距離d、C1からC3までの距離dは、本システムが構築される環境等に応じて任意に設定することができる。
ベジエ曲線は、各円盤型デバイス500の中心点C1を時計周りに結んでいき、結果として1つの閉じた図形を形作るように定義される。全ての円盤型デバイス500は固有の異なるIDを有しており、ベジエ曲線は、IDの小さい順に円盤型デバイス500を結ぶように定義される。例えばID=2、ID=3、ID=4のIDを持つ3つの円盤型デバイスが配置されている場合、ベジエ曲線はデバイス2と3を結ぶもの、デバイス3と4を結ぶものの2本が定義される。一般的に、3次ベジエ曲線は一本を引くために4つの制御点を必要とする。図2(B)において、例えば円盤型デバイス500(デバイス2)と円盤型デバイス500(デバイス3)を結ぶ曲線の場合、デバイス2の中心点C1が先ず最初の制御点となり、デバイス2の点C2が第2の制御点となる。そして、デバイス3の点C3が第3の制御点となり、デバイス3の中心点C1が第4の制御点となる。
床面上に存在する円盤型デバイス500のうち最もIDの小さいものについては、その中心点から270°の方向にある制御点へ向かう方向に半直線が引かれる。同様に、最もIDの大きいデバイスについては、その中心点から90°の方向にある制御点へ向かう方向に半直線が引かれる。これらの2つの半直線が交差する場合は、最もIDの大きいデバイスから最もIDの小さいデバイスへとベジエ曲線が引かれる。この場合、全ての円盤型デバイス500によるベジエ曲線は一つの閉じた空間を形作ることになる。
ベジエ曲線が決定されると、サーバ200は、プロジェクタ400に対して、ベジエ曲線の位置データを送信する。プロジェクタ400は、部屋内の床面上に受信したベジエ曲線に沿った境界線を投影させる。これにより、ユーザは床面に表示されたベジエ曲線に沿った領域を認識することができる。また、ベジエ曲線によって分割される床面上の各領域は、プロジェクタ400の投影によって色分けして表示される。
[(3)3次ベジエ曲線の境界線に応じたリモートコントローラの機能制御]
そして、本実施形態では、円盤型デバイス500によって決定されたベジエ曲線による境界を、リモートコントローラによる操作に適用したアプリケーションを例示する。図3は、円盤型デバイス500によって構築された境界に応じてリモートコントローラ600による操作を制御するシステムを示す模式図である。
図3に示すように、部屋内には電子機器としてテレビとオーディオが配置されているものとする。また、床面上に置かれた円盤型デバイス500によって、ベジエ曲線による境界が部屋内に設定される。サーバ200は、リモートコントローラ600の位置に応じて、リモートコントローラ600によりテレビとオーディオのいずれかを操作できるように制御する。このため、リモートコントローラ600は、円盤型デバイス500と同様に、赤外線カメラ300による位置認識用の赤外線LEDを備えている。
図3の例では、ベジエ曲線による境界によって仕切られた2つの領域A,Bのうち、リモートコントローラ600の位置が領域A内にあるときは、リモートコントローラ600によってテレビを操作することができる。この場合、領域A内からオーディオを操作することはできない。
また、リモートコントローラ600の位置が領域B内にあるときは、リモートコントローラ600によってオーディオを操作することができる。この場合、領域B内からテレビを操作することはできない。
このように、ユーザは、円盤型デバイス500の位置を自由に設定して部屋内にベジエ曲線による境界を設定することで、リモートコントローラ600によって操作される電子機器を適宜に設定することができる。
[(4)サーバを中心とするシステムの機能ブロック構成]
図4は、サーバ200を中心とするシステムの機能ブロック構成を示す模式図である。上述の機能を実現するため、サーバ200は、デバイス位置・方向認識部202、ベジエ曲線制御点決定部204、ベジエ曲線境界描画部206、操作対象決定部208を備える。
デバイス位置・方向認識部202は、赤外線カメラ300から送られたデバイス500の赤外線LED502a,502b,502c,502dの位置に基づいて、各デバイス500の位置及び方向を読取る。また、デバイス位置・方向認識部202は、リモートコントローラ600が備える赤外線LEDの位置に基づいて、リモートコントローラ600の位置を読取る。
ベジエ曲線制御点決定部204は、各デバイス500の位置及び方向から、ベジエ曲線を定義するための制御点を決定する。制御点の決定は、図2で説明した手法によって行われる。
ベジエ曲線境界描画部206は、ベジエ曲線制御点決定部204によって決定された制御点に基づいてベジエ曲線を決定し、床面上に投影するため、そのデータを投影用プロジェクタ400へ送信する。また、ベジエ曲線による境界線のデータは操作対象決定部208にも送られる。
操作対象決定部208は、リモートコントローラ600の位置と、ベジエ曲線による境界線の位置とに基づいて、操作対象となる電子機器(家電製品など)を決定する。操作対象決定部208は、図3のようにベジエ曲線によって領域が仕切られた場合に、リモートコントローラ600が位置している領域に応じて、操作対象となる電子機器を決定する。
リモコン信号受信装置700は、リモートコントローラ600から送られた操作信号を受信し、操作信号を操作対象決定部208へ送る。操作対象決定部208は、受信した操作信号を操作対象の電子機器へ送信する。なお、リモコン信号受信装置700は、サーバ200と一体に構成されていても良い。
また、リモコン信号受信装置700は、各電子機器に設けられていても良い。この場合、操作対象決定部208は、操作対象の電子機器に対して、操作信号による操作を許可する信号を送信し、操作対象でない電子機器に対しては、操作信号による操作を不許可とする信号を送信する。これにより、リモートコントローラ600による操作信号により、操作対象となる電子機器のみを操作することができる。
図4に示すサーバ200の各機能ブロックは、ハードウェア(回路)、または演算処理装置(CPU)とこれを機能させるためのソフトウェア(プログラム)によって構成することができる。各機能ブロックを演算処理装置とソフトウェアから構成した場合、そのプログラムは、表示装置200が備えるメモリ、または外部から挿入されるメモリ等の記録媒体に格納されることができる。
[(5)サーバで行われる処理]
次に、図5及び図6のフローチャートに基づいて、サーバ200で行われる処理について説明する。図5は、各円盤型デバイス500の位置、方向を認識し、各円盤型デバイス500によって決定された領域をプロジェクタ400によって投影するまでの手順を示すフローチャートである。
先ず、ステップS10では、赤外線カメラ300の画像から円盤型デバイス500の位置、方向を取得する。次のステップS12では、各円盤型デバイス500の位置、方向からベジエ曲線の制御点を決定する。次のステップS14では、ベジエ曲線の制御点からベジエ曲線による境界を定義する。次のステップS16では、ベジエ曲線によって定義された境界をプロジェクタ400によって床面上に投影し、部屋内に仕切られた領域を視認できるようにする。
図6は、ユーザによって要求されたサービスを実行する手順を示すフローチャートである。先ず、ステップS20では、ユーザからのサービスの要求を受信する。次のステップS22では、リモートコントローラ600の位置を取得し、リモートコントローラ600の位置(リモートコントローラ600を操作するユーザの現在位置)が円盤型デバイス500によって区画されたどの領域に属するかを割り出す。
次のステップS24では、ステップS22の結果に応じて、ユーザの要求するサービスを実行させる。例えば、図3において、リモートコントローラ600が領域Aに属している場合は、操作対象決定部208により操作対象がテレビに決定されるため、ユーザがテレビの操作を要求している場合は、テレビの操作を実行させる。
以上説明したように第1の実施形態によれば、円盤型デバイス500によって定義された領域毎に、リモートコントローラ600による操作対象を決定することができる。従って、ユーザの要求に応じて、領域毎に異なる操作を実行させることが可能となる。
2.第2の実施形態
[(1)境界定義による機能制御システムの構成]
次に、本発明の第2の実施形態について説明する。図7は、本発明の第2の実施形態に係る機能制御システム100の構成を示す模式図である。図7に示すように、機能制御システム100は、サーバ200、赤外線カメラ300、プロジェクタ400、円盤型デバイス500を有して構成される。機能制御システム100は、例えば屋内の部屋内に構成されるものである。
図7に示すように、円盤型デバイス500は、部屋内の壁面に複数配置される。各円盤型デバイス500には、例えば再帰性反射テープを使用した、同一の光学式マーカが内蔵されている。
また、円盤型デバイス500は、その方向がユーザに対して感覚的に伝わるように、その中心を通る直線を境として明暗の2色に塗り分けられている。第1の実施形態と同様に、円盤型デバイス500の方向とは、円盤型デバイス500の中心から、2色の領域のうちの明るい側の領域を等面積に分割する方向に伸びる半直線の向きとする。また、円盤型デバイス500は、例えば裏面に吸盤を取り付けるなどの手法により、垂直な壁面に対しても固定可能とされている。
図7に示すように、円盤型デバイス500には、2色の領域の境界線に沿って、帯状の再帰性反射テープ502が貼り付けられている。再帰性反射テープ502は、円盤型デバイス500の中心を通るように貼付けられている。また、円盤型デバイス500の2色の領域のうち、明るい側の領域には、円形の再帰性反射テープ504が貼り付けられている。
一方、赤外線カメラ300は、円盤型デバイス500が配置された壁面と対向する位置に設置されている。赤外線カメラ300は、赤外線投光器を備えるカメラであり、円盤型デバイス500が配置された壁面に赤外線を投光し、壁面を撮影することによって各円盤型デバイス500を撮影し、各円盤型デバイス500の再帰性反射テープ502,504の画像を取得する。赤外線カメラ300で取得された画像のデータは、サーバ200へ送られる。
サーバ200は、赤外線カメラ300から送られた画像データに画像処理を施して、各円盤型デバイス500の位置及び方向を読取る。ここで、各円盤型デバイス500の位置は、再帰性反射テープ102の中点の位置から取得することができる。また、各円盤型デバイス500の方向は、各円盤型デバイス500の位置(中心位置)に対する、再帰性反射テープ502の位置から取得することができる。
サーバ200は、各円盤型デバイス500の位置及び方向を取得すると、これらの情報から3次ベジエ曲線を決定し、3次ベジエ曲線を定義する。図8(A)〜図8(C)は、3次ベジエ曲線の制御点を決定し、これに基づいて3次ベジエ曲線を定義する手法を示す模式図である。3次ベジエ曲線を定義する手法は、基本的に第1の実施形態と同様であるが、第2の実施形態では、ベジエ曲線による境界線がループ状に閉じた領域とされる。
ベジエ曲線が決定されると、サーバ200は、プロジェクタ400に対して、ベジエ曲線の位置データを送信する。プロジェクタ400は、部屋の壁面に受信したベジエ曲線に沿った境界線を投影させる。これにより、ユーザは、壁面に表示されたベジエ曲線に沿った領域を認識することができる。
[(2)3次ベジエ曲線の境界線に応じたアプリケーションの機能制御]
そして、本実施形態では、ベジエ曲線によって囲まれた領域の内部に円盤型デバイスの数、位置関係、方向等に従って選択される所定のアプリケーションが投影される。図9は、ベジエ曲線によって囲まれた領域の内部に所定のアプリケーションを投影した状態を示す模式図である。ここで、図9(A)は、領域内に現在の時刻を表示した例を示している。また、図9(B)は、領域内に現在の気温と湿度を表示した例を示している。このように、3次ベジエ曲線によって囲まれた領域内には、プロジェクタ400によって、3次ベジエ曲線の形状、大きさに従って定められた所定のアプリケーションが表示される。
[(3)サーバを中心とするシステムの機能ブロック構成]
図10は、サーバ200を中心とするシステムの機能ブロック構成を示す模式図である。上述の機能を実現するため、サーバ200は、デバイス位置・方向認識部202、ベジエ曲線制御点決定部204、ベジエ曲線境界描画部206、アプリケーション決定部210、データベース212を備える。
デバイス位置・方向認識部202は、赤外線カメラ300から送られたデバイス500の再帰性反射テープ502,504の位置に基づいて、各デバイス500の位置及び方向を認識する。
ベジエ曲線制御点決定部204は、各デバイス500の位置及び方向から、ベジエ曲線を定義するための制御点を決定する。制御点の決定は、図2及び図8で説明した手法によって行われる。
ベジエ曲線境界描画部206は、ベジエ曲線制御点決定部204によって決定された制御点に基づいてベジエ曲線を決定し、壁面上に投影するため、そのデータを投影用プロジェクタ400へ送信する。また、ベジエ曲線による境界線のデータはアプリケーション決定部210にも送られる。
アプリケーション決定部210は、3次ベジエ曲線の形状、大きさに基づいて、ベジエ曲線で囲まれた領域内に表示するアプリケーションを決定する。より詳細には、サーバ200が備えるデータベース212には、3次ベジエ曲線の形状、大きさに応じたフーリエ記述子が記憶されている。また、データベース212には、各フーリエ記述子に紐付けられたアプリケーションが格納されている。アプリケーション決定部210は、ベジエ曲線境界描画部206によって決定されたベジエ曲線からフーリエ記述子を算出し、算出したフーリエ記述子とデータベース212に記憶されているフーリエ記述子とを比較する。そして、最も一致度の高いフーリエ記述子に紐付けられたアプリケーションをデータベース212から選択する。
アプリケーション決定部210によってアプリケーションが決定されると、決定されたアプリケーションがベジエ曲線境界描画部206へ送られる。ベジエ曲線境界描画部206は、壁面に表示されるベジエ曲線のデータとともに、表示されるアプリケーションのデータをプロジェクタ400へ送信する。プロジェクタ400は、ベジエ曲線で囲まれた領域内に決定されたアプリケーションを表示する。
図10に示すサーバ200の各機能ブロックについても、ハードウェア(回路)、または演算処理装置(CPU)とこれを機能させるためのソフトウェア(プログラム)によって構成することができる。各機能ブロックを演算処理装置とソフトウェアから構成した場合、そのプログラムは、表示装置200が備えるメモリ、または外部から挿入されるメモリ等の記録媒体に格納されることができる。
[(4)サーバで行われる処理]
次に、図11のフローチャートに基づいて、サーバ200で行われる処理について説明する。図11は、デバイス500を認識してからアプリケーションを投影するまでの手順を示すフローチャートである。先ず、ステップS30では、赤外線カメラ300の画像から、各円盤型デバイス500の位置、方向を取得する。
次のステップS32では、各円盤型デバイス500の位置、方向に基づいて、3次ベジエ曲線の制御点を決定する。次のステップS34では、制御点によって定義されるベジエ曲線の形状、大きさから、投影するアプリケーション(機能)を選択する。次のステップS36では、プロジェクタ400によって、ベジエ曲線及びアプリケーションを壁面に投影する。
以上説明したように第2の実施形態によれば、デバイス500によって定義されたベジエ曲線の領域内に、ベジエ曲線の形状に応じたアプリケーションを表示することが可能となる。従って、デバイス500の位置を適宜設定することで、所望のアプリケーションを表示させることが可能となる。
3.第3の実施形態
[(1)境界定義による音場境界定義システムの概念]
図12は、本発明の第3の実施形態に係る境界定義による機能制御システム1100の概念を示す模式図である。本発明の第3の実施形態に係る境界定義による機能制御システム1100においては、ユーザが携帯端末20(PDA(Personal Digital Assistant)機器など)を操作する。これにより、ユーザは、例えば建物内などの空間において仮想的な壁10により仕切られた空間を構築することができる。仮想的な壁10が構築されると、壁10を境界として同じ側に位置するユーザ同士は会話を行うことができる。一方、各ユーザは、壁10の向こう側にいるユーザとは会話ができなくなる。このように、本実施形態に係る境界定義による機能制御システム1100は、実物の壁を構築しなくても、仮想的な壁10を構築することで、あたかも実物の壁が存在している場合と同様に、仮想的な壁10によってユーザ同士の会話や、他の環境音を遮ることを可能とする。
図12では、ユーザが携帯端末20を使用して仮想的な壁10を生成する様子を模式的に示している。ここでは、携帯端末20の表示画面上に現在ユーザがいる部屋30の俯瞰図が示され、表示画面上で自由に線を描くことによって仮想的な壁10を部屋30の内部に設置することができる。後述するが、描画されて設定された仮想的な壁10は、プロジェクタによって部屋30の床面に投影され、ユーザによって視認可能となる。
[(2)境界定義による音場境界定義システムの構成]
図13は、本発明の第3の実施形態に係る境界定義による機能制御システム1100の構成を示す模式図である。図13に示すように、境界定義による機能制御システム1100は、サーバ1200、赤外線カメラ1300、プロジェクタ1400、携帯型情報端末1500を有して構成される。上述のように境界定義による機能制御システム1100は、例えば屋内の部屋内に構成されるものである。部屋内には、複数のユーザが存在しており、各ユーザは携帯型情報端末1500をそれぞれ装着している。
携帯型情報端末1500は、ヘッドホンの形態で構成され、位置認識用マーカ1502、マイクロホン1504、ノイズキャンセリングヘッドホン(スピーカ)1506、通信部1508を備えている。位置認識用マーカ1502は、ヘッドホン1506の上面に装着されている。位置認識用マーカ1502は、赤外線LEDマーカから構成される。
図14は、位置認識用マーカ1502の構成を示す平面図であって、上部から位置認識用マーカ1502を見た状態を示している。図14に示すように、位置認識用マーカ1502は、複数の赤外線LED1502a,1502b,1502c,1502dを備えている。赤外線LED1502a,1502b,1502c,1502dは、2つの直交する直線L1,L2に沿って配置されている。ここで、赤外線LED1502bは、位置認識用マーカ1502の中心に位置するLEDである。なお、位置認識用マーカ1502の形状は、図14の構成に限定されるものではなく、ユーザ毎の各携帯型情報端末1500のそれぞれで少しずつ異なる構成とすることができる。例えば、複数の赤外線LED1502a,1502b,1502cからなる直線L2は各ユーザの携帯型情報端末1500で共通とし、赤外線LED1502dの位置は直線L2の方向に沿って左寄り、右寄りなどユーザ毎に少しずつずらしてもよい。すなわち、直線L1はL2の中心(赤外線LED1502bの位置)を通るものには限定されない。このような構成によれば、各携帯型情報端末1500の位置と方向だけでなく、赤外線LED1502dの直線L2方向の位置に応じて、携帯型情報端末1500が「どの」端末なのか、「どの」ユーザが使用しているものであるかも判別可能である。判別のプロセスとしては、先ず赤外線カメラ1300の画像から直線L2を探し出し、その時点でユーザの位置を赤外線LED1502bの位置(直線L2の中点)として一意に決定し、また、方向についてもL2に垂直な2方向のどちらかに絞られる。次に、赤外線LED1502dを探し出し、L2との位置関係からユーザの方向が一意に決定され、また、赤外線LED1502dの直線L2方向の位置に応じて、「どの」ユーザであるかも判別できる。
直線L1は、その端部に向かう方向がヘッドホン1506を装着した各ユーザの顔の向き(目線の方向)となるように配置されている。また、直線L2は、ヘッドホン1506の左右のスピーカ(ユーザの左右の耳)を結ぶ方向に配置される。
一方、赤外線カメラ1300は、部屋内の上部、例えば天井に設置されている。赤外線カメラ1300は、例えば複数個が天井にアレイ状に配置されている。赤外線カメラ1300は、天井から下方を撮影して各ユーザの位置認識用マーカ1502の赤外線LED1502a,1502b,1502c,1502dの画像を取得する。赤外線カメラ1300で取得された画像のデータは、サーバ1200へ送られる。
サーバ1200は、赤外線カメラ1300から送られた画像データに画像処理を施して、各位置認識用マーカ1502の位置及び方向を読取る。ここで、各位置認識用マーカ1502の位置は、中心に位置する1502bの位置から取得することができる。また、直線L2に対する赤外線LED1502dの位置から、直線L1の方向が判るため、直線L1の方向から位置認識用マーカ1502の方向が判り、これに基づいてユーザの顔の向きを取得することができる。
ヘッドホン1506には、通信部1508が装着されている。通信部1508とサーバ1200とは、例えば無線LANを介して通信可能とされている。通信部1508は、図12で説明した携帯端末20の機能を備えることができ、ユーザは通信部1508を操作することにより、壁10の位置を設定することができ、その情報をサーバ1200へ送信することができる。なお、ユーザは、無線LAN等によりサーバ1200と通信可能に接続される他の携帯端末を用いて壁10を設定することもできる。サーバ1200は、ユーザによって設定された壁10の情報を受信すると、その情報をデータベースに保存し、壁10の位置に応じて各ユーザが装着している携帯型情報端末1500の機能を制御する。
ここで、例えば特定の1のユーザが使用する携帯型情報端末1500のみが壁10を設定する機能を備えていてもよい。また、全てのユーザが使用する携帯型情報端末1500が壁10を設定する機能を備えており、各ユーザが壁10を設定する度に、サーバ1200のデータベースにおける壁10の情報が更新されるものとしても良い。更に、2以上の携帯型情報端末1500から異なる壁10の設定がされた場合に、所定の優先順位に基づいて決定された1の携帯型情報端末1500が壁10を設定するものとしても良い。
また、携帯型情報端末1500に設けられたマイクロホン1504は、通信部1508と接続されており、ユーザの全ての発話は、マイクロホン1504によってキャプチャされて、通信部1508からサーバ1200に送られる。
サーバ1200は、壁10の位置と、各携帯型情報端末1500の位置に基づいて、各携帯型情報端末1500の機能を制御する。具体的には、サーバ1200は、壁10に対して同じ側に位置している携帯型情報端末1500については、相互に通話ができるように制御を行う。サーバ1200は各携帯型情報端末1500の位置から各ユーザの位置を把握しており、また、壁10の位置も把握しているので、任意の2人のユーザの間が仮想的な壁10によって遮られているかどうかを判別することができる。あるユーザ(仮にユーザAとする)が発話を行った場合、そのユーザとの間に壁10が存在しない他のユーザの携帯型情報端末1500に対してのみ、ユーザAの発話が送信される。ヘッドホン1506のノイズキャンセリング機能によって大抵の環境音はユーザの耳からほぼ遮断され、また、直接ユーザの耳に伝わる他のユーザの発話も音量が十分に抑制される。この結果、携帯型情報端末1500を装着したユーザが聞くことのできる音声は、サーバ1200によって意図的に送信される音声のみとなる。
この結果、各ユーザには、仮想的な壁10を隔てた向こう側にいるユーザの声は殆ど聞こえないこととなり、仮想的な壁10は音声に関して実際の壁と同等の働きをすることになる。
具体的な処理として、サーバ1200は、発話を送信したユーザAの位置を発話情報とともに3Dミキサーに入力し、3Dミキサーから得られた発話情報を壁10に対して同じ側に位置する全てのユーザ(仮にユーザBとする)へ送る。この際、送信先のユーザBの位置、向きについても3Dミキサーへ入力され、送信先のユーザBの位置、顔の向き(すなわち、耳の向き)を考慮した上でユーザBに対してユーザAの発話情報が送信される。これにより、発話しているユーザAの位置、送信先となるユーザBの位置、およびユーザBの顔の向きに応じたリアルな音声を各ユーザに送ることができる。
投影用のプロジェクタ1400は、赤外線カメラ1300と同様に、部屋内の上部、例えば天井に設置されている。投影用のプロジェクタ1400は、壁10の位置情報をサーバ1200から取得し、壁10に対応する境界線を床面上に投影する。これにより、各ユーザは、仮想的に設定された壁10の位置を視認することができる。
前述のように、近年におけるオフィス空間などの設計では、従業員が個人作業からグループ作業、またはその逆へと簡単に移行できるよう、個人スペースと共同スペースとの間に障壁を多く設けないことが主流となりつつある。一方、このようなオフィスでは、音声がほとんど遮断されないため、一人で集中して作業を行いたい場合や数人で静かに話しをしたい場面など、一部の状況下で不便が生じることが想定される。
本実施形態の境界定義による機能制御システム1100によれば、サーバ1200側で各ユーザの携帯型情報端末1500の位置を認識して、仮想的な壁10に対して同じ側に位置するユーザ同士が会話をできるように各ヘッドホン1500が制御される。従って、物理的な障壁(壁)を実際に設けることなく、ユーザ同士が望む会話を実現することが可能となる。
また、プロジェクタ1400の投影によって各ユーザは壁10を視認することができるため、例えば壁10によって仕切られた一方の領域で会議等を行っている場合、会議に参加しないユーザは、他方の領域に移動すれば会議の内容は聞こえなくなる。従って、同じ部屋内で少しの距離を移動するのみで、会議の内容が聞こえなくなり、自分の作業等に集中することができる。
[(3)サーバを中心とする境界定義による音場境界定義システムの機能ブロック構成]
図15は、第3の実施形態において、サーバ1200を中心とする音場境界定義システム1100の機能ブロック構成を示す模式図である。上述の機能を実現するため、サーバ1200は、ユーザ位置認識部1202、3D音声ミキサー部1204、音声受信部1206、音声送信部1208、壁情報データベース1210、壁情報更新部1212を備える。
ユーザ位置認識部1202は、カメラ1300から送られた各位置認識用マーカ1502の赤外線LED1502a,1502b,1502c,1502dの位置に基づいて、各ユーザの位置及びユーザの向いている方向を読取る。音声受信部1206は、各ユーザの携帯型情報機器1508のマイクロホン1504が取得した発話情報を受信する。3D音声ミキサー部1204は、音声受信部1206が受信した発話情報を、送信元のユーザの位置、送信先の各ユーザの位置及び送信先の各ユーザの顔の向きに応じてミキシングして、仮想的な壁10に対して同じ側に位置するユーザ同士が会話をできるように設定し、音声送信部1208へ送る。音声送信部1208は、3D音声ミキサー部1204から送られた各ユーザへの発話情報を、仮想的な壁10に対して同じ側に位置するユーザ同士が会話をできるように、各ユーザの携帯型情報端末1500へ送る。
壁情報更新部1212は、ユーザによって設定された壁10の情報を受信し、新たに壁10が設定される度に壁10の情報を更新する。更新された壁10の情報は、壁情報データベース1210に保存される。
図15に示す各機能ブロックは、ハードウェア(回路)、または演算処理装置(CPU)とこれを機能させるためのソフトウェア(プログラム)によって構成することができる。各機能ブロックを演算処理装置とソフトウェアから構成した場合、そのプログラムは、表示装置1200が備えるメモリ、または外部から挿入されるメモリ等の記録媒体に格納されることができる。
[(4)サーバで行われる処理について]
次に、図16に基づいて、サーバ1200の処理について説明する。処理の前提として、ユーザによる携帯型情報端末1500の操作により、壁10の情報がサーバ1200へ送られ、壁情報データベース1210に保存される。先ず、ステップS110では、ユーザAが発話を行う。次のステップS112では、ユーザAの発話による発話情報をユーザAに装着されている携帯型情報端末1500のマイクロホン1504が取得し、通信部1508からサーバ1200へ送信する。
次のステップS114では、位置認識用のカメラ1300により取得された各携帯型情報端末1500の位置に基づいて、壁情報データベース1210に保存されている壁10の位置情報を参照し、壁10に対してユーザAと同じ側にいる他のユーザを判別する。
次のステップS116では、位置認識用のカメラ1300により取得された各携帯型情報端末1500の位置、方向に基づいて、ステップS114でユーザAと同じ側にいると判別された各ユーザに送信するため、発話情報を算出する。算出はサーバ1200が備える3D音声ミキサー部1204によって行われ、上述したように、ユーザAの発話情報は、ユーザAの位置、送信先のユーザの位置及び方向に基づいてミキシングされる。
次のステップS118では、ステップS116で算出した発話情報をそれぞれのユーザの携帯型情報端末1500へ送信する。次のステップS120では、壁10に対してユーザAと同じ側にいるユーザがステップS118で送信された発話情報を受信し、ヘッドホン1506により再生する。これにより、壁10に対してユーザAと同じ側にいるユーザのみが、ユーザAの発話を聴くことができる。
[5.環境音の取得について]
図13に示すように、部屋内の床面には、マイクロホン1600が所定の間隔で配置されており、マイクロホン1600により部屋内の環境音が取得される。マイクロホン1600の位置は、サーバ1200のデータベースに予め記憶されている。マイクロホン1600で取得された環境音の情報は、サーバ1200の音声受信部1206に送られ、壁10に対して環境音が取得されたマイクロホン1600と同じ側に存在するユーザに対してのみ送信される。これにより、例えば発話情報以外の音声情報(例えばペンを床上に落とした際の音など)についても、ユーザのヘッドホン1506によって再生することが可能となる。
マイクロホン1600で取得された環境音の情報についても、マイクロホンの位置、送信先のユーザの位置及び方向に基づいて、3D音声ミキサー部1204により3Dミキシングが行われる。従って、ユーザは、環境音についても、実際の音と同程度にリアルな音声として聞くことができる。
従って、各ユーザの発話に加えて、マイクロホン1600によって集音された環境音もサーバ1200に送り、壁10に対して同じ側に位置するユーザのみに送信することができる。従って、例えば足音やペンを床に落とした際の音などもユーザに聞こえるようになるため、より自然な音場の体験が実現できる。
以上説明したように本実施形態によれば、仮想的な壁10を定義して、任意のユーザによる発話を壁10に対して同じ側に位置しているユーザに対してのみ送信するようにしたため、物理的な壁を実際に設けることなく、仮想的な壁10により音を遮ることができる。従って、オフィスなどの空間において、仮想的な壁10により仕切られた所望の空間を実現することが可能となる。
4.第4の実施形態
[(1)第4の実施形態にかかる境界定義による音場境界定義システムの概念]
図17は、本発明の第4の実施形態に係る境界定義による機能制御システム2100の概念を示す模式図である。本発明の第4の実施形態に係る境界定義による機能制御システム1100においては、第3の実施形態と同様に、仮想的な壁10に対して同じ側に位置するユーザ同士が会話をできるように各ヘッドホン1500が制御される。図17に示すように、第4の実施形態は、第1の実施形態で説明した円盤型デバイス500によって仮想的な壁10を設定するものである。ユーザは、床面上に円盤型デバイス500を好みの位置に配置することで、所望の形状の仮想的な壁10を設定することが可能である。
[(2)サーバを中心とする境界定義による音場境界定義システムの機能ブロック構成]
第4の実施形態においては、円盤型デバイス500によって壁10を設定する構成のみが第3の実施形態と相違し、他の構成は第3の実施形態と同様である。図18は、第4の実施形態において、サーバ2200を中心とする音場境界定義システム2100の機能ブロック構成を示す模式図である。第4の実施形態において、サーバ2200は、第3の実施形態のサーバ1200と同様に、ユーザ位置認識部1202、3D音声ミキサー部1204、音声受信部1206、音声送信部1208、壁情報データベース1210、壁情報更新部1212を備える。また、第4の実施形態において、サーバ2200は、第1の実施形態のサーバ200が有するデバイス位置・方向認識部202、ベジエ曲線制御点決定部204、ベジエ曲線境界描画部206。これらの各構成要素の機能は、第3の実施形態のサーバ1200、第1の実施形態のサーバ200と同様である。
第1の実施形態と同様に、デバイス位置・方向認識部202は、赤外線カメラ1300から送られたデバイス500の赤外線LED500a,500b,500c,500dの位置に基づいて、各デバイス500の位置及び方向を読取る。ベジエ曲線制御点決定部204は、各デバイス500の位置及び方向から、ベジエ曲線を定義するための制御点を決定する。制御点の決定は、図2で説明した手法によって行われる。ベジエ曲線境界描画部206は、ベジエ曲線制御点決定部204によって決定された制御点に基づいてベジエ曲線を決定し、床面上に投影するため、そのデータを投影用プロジェクタ1400へ送信する。また、ベジエ曲線による境界線のデータは壁情報データベース1210に送られる。
また、第3の実施形態と同様に、ユーザ位置認識部1202は、各ユーザの位置認識用マーカ1502の位置、方向を認識する。3D音声ミキサー部1204は、音声受信部1206が受信した発話情報を、送信元のユーザの位置、送信先の各ユーザの位置及び送信先の各ユーザの顔の向きに応じてミキシングする。そして、3D音声ミキサー部1204は、仮想的な壁10に対して同じ側に位置するユーザ同士が会話をできるように設定し、ミキシングした発話情報を音声送信部1208へ送る。音声送信部1208は、3D音声ミキサー部1204から送られた各ユーザへの発話情報を、仮想的な壁10に対して同じ側に位置するユーザ同士が会話をできるように、各ユーザの携帯型情報端末1500へ送る。従って、第3の実施形態と同様に、物理的な障壁(壁)を実際に設けることなく、ユーザ同士が望む会話を実現することが可能となる。
なお、第4の実施形態に係るサーバ2200で行われる処理は、図16で説明した第3の実施形態と同様に行われる。この際、壁情報データベース1210に保存されている壁10の位置情報として、ベジエ曲線による境界線のデータが参照される。
以上説明したように本実施形態によれば、円盤型デバイス500により仮想的な壁10を定義して、任意のユーザによる発話を壁10に対して同じ側に位置しているユーザに対してのみ送信するようにしたため、物理的な壁を実際に設けることなく、仮想的な壁10により音を遮ることができる。従って、オフィスなどの空間において、仮想的な壁10により仕切られた所望の空間を実現することが可能となる。
5.第5の実施形態
[(1)第5の実施形態にかかる境界定義による音場境界定義システムの構成]
図19は、本発明の第5の実施形態に係る境界定義による機能制御システム2100の構成を示す模式図である。第5の実施形態は、第4の実施形態における円盤型デバイス500の代わりに、位置認識用デバイスが設けられた物理オブジェクトを用いて、物理オブジェクトの配置から仮想的な壁10のレイアウトを設定するものである。本実施形態では、物理オブジェクトとして、床面上に配置される椅子550を例示する。物理オブジェクトは、他の構成要素であっても良く、例えば、床面上に配置される机、パーティションなどであっても良い。第5の実施形態の他の構成は、第4の実施形態と同様である。
図1に示すように、第5の実施形態に係る機能制御システム2100は、サーバ2200、赤外線カメラ1300、プロジェクタ1400を有して構成される。
床面上に配置される椅子550の上面には、円盤型デバイス500と同様に、位置認識用デバイスとして複数の赤外線LED500a,500b,500c,500dが配置されている。赤外線カメラ1300は、床面を撮影して各椅子550の赤外線LED500a,500b,500c,500dの画像を取得する。赤外線カメラ1300で取得された画像のデータは、サーバ2200へ送られる。そして、第4の実施形態と同様に、サーバ2200のデバイス位置・方向認識部202は、赤外線LED500a,500b,500c,500dの位置に基づいて、各椅子550の位置及び方向を読取り、仮想的な壁10となるベジエ曲線が決定される。
また、第4の実施形態と同様に、サーバ2200のユーザ位置認識部1202は、各ユーザの位置認識用マーカ1502の位置、方向を認識する。3D音声ミキサー部1204は、音声受信部1206が受信した発話情報を、送信元のユーザの位置、送信先の各ユーザの位置及び送信先の各ユーザの顔の向きに応じてミキシングする。そして、3D音声ミキサー部1204は、仮想的な壁10に対して同じ側(内側)に位置するユーザ同士が会話をできるように設定し、ミキシングした発話情報を音声送信部1208へ送る。音声送信部1208は、3D音声ミキサー部1204から送られた各ユーザへの発話情報を、仮想的な壁10に対して同じ側(内側)に位置するユーザ同士が会話をできるように、各ユーザの携帯型情報端末1500へ送る。従って、第4の実施形態と同様に、物理的な障壁(壁)を実際に設けることなく、ユーザ同士が望む会話を実現することが可能となる。
図20は、5つの椅子550が互いに向かい合って配置されている場合に、仮想的な壁10が設定される様子を示す模式図である。図20(A)に示すように、5つの椅子550がある中心に向かって配置されているものとする。図20(A)において、矢印は各椅子550の正面の向きを示している。この場合、図20(B)のように各人は向かい合って座ることになる。そして、図20(C)に示すように、仮想的な壁10となるベジエ曲線は、各椅子550を囲むように設定される。従って、椅子550に座っている5人は会話をすることができる。一方、椅子550に座っておらず、壁10の外側にいて携帯型情報端末1500を装着している人は、椅子550に座っている5人と会話をすることができない。
図21は、椅子550が向かい合って配置されていない場合を示しており、図21(A)は椅子550が2つの場合を、図21(B)は椅子550が3つの場合を示している。ベジエ曲線制御点決定部204は、デバイス位置・方向認識部202によって検出された赤外線LED500a,500b,500c,500dの位置に基づいて、椅子550が向かい合って配置されているか否かを判定する。そして、椅子550が向かい合って配置されていない場合は、ベジエ曲線を設定しない。従って、図21(A)及び図21(B)に示すような場合は、仮想的な壁10は設定されない。
また、図22は、向かい合って配置された椅子550が遠く離れている場合を示している。ベジエ曲線制御点決定部204は、デバイス位置・方向認識部202によって検出された赤外線LED500a,500b,500c,500dの位置に基づいて、各椅子550の距離が所定値Dよりも大きい場合はベジエ曲線を設定しない。従って、向かい合って配置された椅子550が遠く離れている場合は、仮想的な壁10は設定されない。
従って、図23に示すように、椅子が向かい合って配置されており、且つ、各椅子550間の距離が所定値以下の場合に、仮想的な壁10が設定される。これにより、椅子550に座る人が向かい合っており、且つ、椅子550に座る各人の距離が近い場合のみ、各椅子550を囲むように設定された仮想的な壁10内で会話をすることが可能となる。
以上説明したように本実施形態によれば、椅子550により仮想的な壁10を定義して、任意のユーザによる発話を、各椅子550を囲むように設定された仮想的な壁10内に位置しているユーザに対してのみ送信するようにした。これにより、物理的な壁を実際に設けることなく、仮想的な壁10により音を遮ることができる。従って、オフィスなどの空間において、椅子550の配置に応じて設定される仮想的な壁10により仕切られた所望の空間を実現することが可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
100,1100 機能制御システム
200 サーバ
202 デバイス位置・方向認識部
204 ベジエ曲線制御点決定部
206 ベジエ曲線境界描画部
208 操作対象決定部
210 アプリケーション決定部
1200 サーバ
1202 ユーザ位置認識部
1206 音声受信部
1210 壁情報データベース
1208 音声送信部
1500 携帯型情報端末

Claims (16)

  1. 任意の物理的な空間を仮想的に分離するための境界線を設定するステップと、
    前記境界線の位置、前記境界線で構成される閉ループの形状および大きさのいずれか一部またはその全てに基づいて、電子機器の所定の機能を制御するステップと、
    を備え
    前記境界線を設定するステップは、
    前記任意の物理的な空間に配置された複数の位置認識用デバイスの位置をそれぞれ取得するステップと、
    複数の前記位置認識用デバイスの位置に基づいて、前記位置認識用デバイスを結ぶ前記境界線を算出するステップと、
    を有する、境界定義による機能制御方法。
  2. 前記位置認識用デバイスの位置を取得するステップにおいて、前記位置認識用デバイスの位置とともに前記位置認識用デバイスの方向を取得し、
    前記境界線を算出するステップにおいて、前記位置認識用デバイスの位置及び方向に基づいて3次ベジエ曲線を算出する、請求項1に記載の境界定義による機能制御方法。
  3. 前記所定の機能を制御するステップにおいて、前記境界線の位置とユーザによって操作される前記電子機器との位置関係に応じて、当該電子機器によって実現される機能を制御する、請求項1に記載の境界定義による機能制御方法。
  4. 前記境界線を前記任意の物理的な空間内に表示するステップを更に備える、請求項1に記載の境界定義による機能制御方法。
  5. 前記表示するステップにおいて、閉ループを構成する前記境界線を表示するとともに、前記閉ループ内に所定のアプリケーションによる機能を表示するステップを備え、
    前記所定の機能を制御するステップにおいて、前記閉ループの形状又は大きさに基づいて、当該閉ループ内に表示されるアプリケーションの機能を制御する、請求項4に記載の境界定義による機能制御方法。
  6. 前記任意の物理的な空間内で発せられた音声情報を取得するステップと、
    前記任意の物理的な空間内に存在する、前記電子機器としての携帯情報端末の位置を取得するステップと、
    前記境界線による境界に対して前記音声情報を取得した位置と同じ側に存在する前記携帯情報端末に、前記音声情報を送信するステップと、
    を備える、請求項1に記載の境界定義による機能制御方法。
  7. 前記携帯情報端末は、前記任意の物理的な空間内に存在するユーザに装着され、当該ユーザに対して前記音声情報による音声を再生して提供する、請求項6に記載の境界定義による機能制御方法。
  8. 前記音声情報を送信するステップの前に、前記音声情報を取得した位置及び送信先の前記携帯情報端末の位置に基づく前記音声情報の3Dミキシングを行うステップを備え、
    前記音声情報を送信するステップにおいて、3Dミキシングが行われた前記音声情報を送信する、請求項6に記載の境界定義による機能制御方法。
  9. 前記音声情報は、前記携帯情報端末が備えるマイクロホンから取得される、請求項6に記載の境界定義による機能制御方法。
  10. 前記位置認識用デバイスは、前記任意の物理的な空間内に配置される物理オブジェクトに設けられる、請求項1に記載の境界定義による機能制御方法。
  11. 所定の機能を制御可能な電子機器と、
    任意の物理的な空間を仮想的に分離するための境界線を設定する境界線設定部と、前記境界線の位置、前記境界線で構成される閉ループの形状および大きさのいずれか1つまたは複数に基づいて、前記電子機器の所定の機能を制御する機能制御部と、を有する機能制御用サーバと、
    を備える、境界定義による機能制御システム。
  12. 任意の物理的な空間を仮想的に分離するための境界線を設定する境界線設定部と、
    前記境界線の位置、前記境界線で構成される閉ループの形状および大きさのいずれか1つまたは複数に基づいて、電子機器の所定の機能を制御する機能制御部と、を備える、境界定義による機能制御用サーバ。
  13. 任意の物理的な空間を仮想的に分離するための境界線を設定する境界線設定手段、
    前記境界線の位置、前記境界線で構成される閉ループの形状および大きさのいずれか1つまたは複数に基づいて、電子機器の所定の機能を制御する手段、
    としてコンピュータを機能させるためのプログラム。
  14. 任意の物理的な空間内に存在し、無線通信により音声情報を送受信する携帯情報端末と、
    前記任意の物理的な空間を仮想的に分離するための境界情報が格納されるデータベースと、前記携帯情報端末から送信された音声情報を取得する音声受信部と、前記携帯情報端末の位置を取得する位置認識部と、前記境界情報による境界に対して前記音声情報を取得した前記携帯情報端末と同じ側に存在する他の前記携帯情報端末に、取得した前記音声情報を送信し、同じ側に存在しない他の携帯情報端末には取得した音声情報を送信しない音声送信部と、を有する音場境界定義用サーバと、
    を備える、境界定義による機能制御システム。
  15. 任意の物理的な空間を仮想的に分離するための境界情報が格納されるデータベースと、
    前記任意の空間内で発せられた音声情報を取得する音声受信部と、
    前記任意の空間内に存在する携帯情報端末の位置を取得する位置認識部と、
    前記境界情報による境界に対して前記音声情報を取得した位置と同じ側に存在する前記携帯情報端末に、前記音声情報を送信し、同じ側に存在しない他の携帯情報端末には取得した音声情報を送信しない音声送信部と、
    を備える、境界定義による機能制御用サーバ。
  16. 任意の物理的な空間を仮想的に分離するための境界情報を格納する手段、
    前記任意の空間内で発せられた音声情報を取得する手段、
    前記任意の空間内に存在する携帯情報端末の位置を取得する手段、
    前記境界情報による境界に対して前記音声情報を取得した位置と同じ側に存在する前記携帯情報端末に、前記音声情報を送信し、同じ側に存在しない他の携帯情報端末には取得した音声情報を送信しない手段、
    としてコンピュータを機能させるためのプログラム。
JP2009083101A 2009-01-06 2009-03-30 境界定義による機能制御方法、境界定義による機能制御システム、境界定義による機能制御サーバ及びプログラム Expired - Fee Related JP4743305B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009083101A JP4743305B2 (ja) 2009-01-06 2009-03-30 境界定義による機能制御方法、境界定義による機能制御システム、境界定義による機能制御サーバ及びプログラム
CN2010100030210A CN101800836B (zh) 2009-01-06 2010-01-06 利用边界定义的功能控制方法、系统和服务器
US12/683,209 US8766763B2 (en) 2009-01-06 2010-01-06 Function control method using boundary definition, function control system using boundary definition, function control server using boundary definition and program

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2009001153 2009-01-06
JP2009001154 2009-01-06
JP2009001153 2009-01-06
JP2009001154 2009-01-06
JP2009083101A JP4743305B2 (ja) 2009-01-06 2009-03-30 境界定義による機能制御方法、境界定義による機能制御システム、境界定義による機能制御サーバ及びプログラム

Publications (2)

Publication Number Publication Date
JP2010183554A JP2010183554A (ja) 2010-08-19
JP4743305B2 true JP4743305B2 (ja) 2011-08-10

Family

ID=42311307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009083101A Expired - Fee Related JP4743305B2 (ja) 2009-01-06 2009-03-30 境界定義による機能制御方法、境界定義による機能制御システム、境界定義による機能制御サーバ及びプログラム

Country Status (3)

Country Link
US (1) US8766763B2 (ja)
JP (1) JP4743305B2 (ja)
CN (1) CN101800836B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9566509B2 (en) * 2013-03-12 2017-02-14 Disney Enterprises, Inc. Adaptive rendered environments using user context
CN104639369B (zh) * 2015-01-22 2018-03-16 浪潮(北京)电子信息产业有限公司 一种服务器管理系统及服务器管理方法
US10423241B1 (en) * 2017-07-31 2019-09-24 Amazon Technologies, Inc. Defining operating areas for virtual reality systems using sensor-equipped operating surfaces

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001009156A (ja) * 1999-06-30 2001-01-16 Square Co Ltd コンピュータ読み取り可能な記録媒体、ゲームの表示制御方法およびゲーム装置
JP2005341092A (ja) * 2004-05-26 2005-12-08 Hitachi Ltd 音声コミュニケーション・システム
JP2005346507A (ja) * 2004-06-03 2005-12-15 Sony Corp 携帯型電子機器、入力操作制御方法及びそのプログラム

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4814751A (en) * 1987-02-27 1989-03-21 Wildlife Materials, Inc. Patient tracking system
US5819016A (en) * 1993-10-05 1998-10-06 Kabushiki Kaisha Toshiba Apparatus for modeling three dimensional information
JP3586548B2 (ja) * 1997-01-10 2004-11-10 シャープ株式会社 通信方法、通信システム、通信プログラムを記録したコンピュータで読取可能な記録媒体および通信機器
WO1998052808A2 (en) * 1997-05-22 1998-11-26 Mind Quirx L.L.C. Shopping cart with theft disabling device
JP3123501B2 (ja) * 1998-03-16 2001-01-15 日本電気株式会社 空間視点制御装置
WO2000017819A1 (en) * 1998-09-24 2000-03-30 Brigit Ananya Computer curve construction system and method
US6163683A (en) * 1999-02-24 2000-12-19 International Business Machines Corporation Broadcast data radio system and receiver apparatus therefor
US6812881B1 (en) * 1999-06-30 2004-11-02 International Business Machines Corp. System for remote communication with an addressable target using a generalized pointing device
US6232916B1 (en) * 1999-08-31 2001-05-15 Lucent Technologies, Inc. GPS restraint system and method for confining a subject within a defined area
US6369710B1 (en) * 2000-03-27 2002-04-09 Lucent Technologies Inc. Wireless security system
US6988080B2 (en) * 2001-02-16 2006-01-17 Zack Robert E Automated security and reorder system for transponder tagged items
US20020158761A1 (en) * 2001-04-27 2002-10-31 Larry Runyon Radio frequency personnel alerting security system and method
US20020173940A1 (en) * 2001-05-18 2002-11-21 Thacker Paul Thomas Method and apparatus for a simulated stalking system
US7324959B2 (en) * 2001-07-06 2008-01-29 International Business Machines Corporation Method for delivering information based on relative spatial position
US6963277B2 (en) * 2002-03-26 2005-11-08 Kabushiki Kaisha Toshiba Method of and system for monitoring behavior of group of persons, and computer program product
US7277692B1 (en) * 2002-07-10 2007-10-02 Sprint Spectrum L.P. System and method of collecting audio data for use in establishing surround sound recording
GB2392285B (en) * 2002-08-06 2006-04-12 Hewlett Packard Development Co Method and arrangement for guiding a user along a target path
US6721652B1 (en) * 2002-11-22 2004-04-13 Electronic Data Systems Corporation (EDS) Implementing geo-fencing on mobile devices
JP2004348647A (ja) * 2003-05-26 2004-12-09 Hitachi Ltd ヒューマン・コミュニケーション・システム
JP4393169B2 (ja) * 2003-12-04 2010-01-06 キヤノン株式会社 複合現実感提示方法および装置
IL160429A0 (en) * 2004-02-16 2005-11-20 Home Comfort Technologies Ltd Environmental control system
KR20060130715A (ko) * 2004-03-03 2006-12-19 닛본 덴끼 가부시끼가이샤 측위 시스템, 측위 방법, 및 그 프로그램
JP4232032B2 (ja) * 2004-05-17 2009-03-04 ソニー株式会社 音響装置および音響装置を用いた監視方法
US7286834B2 (en) * 2004-07-13 2007-10-23 Sbc Knowledge Ventures, Lp System and method for location based policy management
US7839289B2 (en) * 2004-08-26 2010-11-23 Avante International Technology, Inc. Object monitoring, locating, and tracking system and method employing RFID devices
US7545267B2 (en) * 2004-09-17 2009-06-09 Siemens Building Technologies, Inc. Arrangement and method for product information interaction with building control system elements
JP2006093792A (ja) 2004-09-21 2006-04-06 Yamaha Corp 特定音声再生装置、及び特定音声再生ヘッドホン
US7743406B2 (en) * 2004-12-21 2010-06-22 International Business Machines Corporation System and method of preventing alteration of data on a wireless device
US20060135121A1 (en) * 2004-12-21 2006-06-22 Abedi Scott S System and method of securing data on a wireless device
US20060220785A1 (en) * 2005-03-31 2006-10-05 Torbjoern Ferdman Generic radio transmission network for door applications
JP4779450B2 (ja) 2005-06-01 2011-09-28 株式会社日立製作所 コンテキスト情報に応じたアプリケーション制御を行うネットワークシステム
EP1926074A4 (en) * 2005-09-12 2014-01-08 Panasonic Corp CARD DISPLAY DEVICE
JP4927873B2 (ja) * 2006-01-17 2012-05-09 クゥアルコム・インコーポレイテッド 仮想動作の境界を設定する方法および装置
US20070191025A1 (en) * 2006-02-13 2007-08-16 Gemini Technologies Global Ltd. Locating device and system
US7443298B2 (en) * 2006-02-15 2008-10-28 International Business Machines Corporation Dynamic boundary mapping using position-determination systems
WO2008075257A2 (en) * 2006-12-19 2008-06-26 Koninklijke Philips Electronics N.V. Method of controlling an autonomous device
WO2008096431A1 (ja) * 2007-02-08 2008-08-14 Fujitsu Limited 基地局装置、移動通信システム及びセル選択通信方法
KR100939731B1 (ko) * 2007-12-17 2010-01-29 한국전자통신연구원 위치 식별 태그의 위치를 이용한 위치 측정 단말 및 위치측정 방법
US8284069B2 (en) * 2008-07-15 2012-10-09 Cadec Global, Inc. System and method for detecting a boundary crossing event
US8350666B2 (en) * 2008-10-15 2013-01-08 Honeywell International Inc. Apparatus and method for location-based access control in wireless networks
US20100228602A1 (en) * 2009-02-25 2010-09-09 Michael Gilvar Event information tracking and communication tool
US8756010B2 (en) * 2009-10-12 2014-06-17 Qualcomm Incorporated Method and apparatus for identification of points of interest within a predefined area
US9901828B2 (en) * 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001009156A (ja) * 1999-06-30 2001-01-16 Square Co Ltd コンピュータ読み取り可能な記録媒体、ゲームの表示制御方法およびゲーム装置
JP2005341092A (ja) * 2004-05-26 2005-12-08 Hitachi Ltd 音声コミュニケーション・システム
JP2005346507A (ja) * 2004-06-03 2005-12-15 Sony Corp 携帯型電子機器、入力操作制御方法及びそのプログラム

Also Published As

Publication number Publication date
CN101800836B (zh) 2013-03-06
US20100171585A1 (en) 2010-07-08
CN101800836A (zh) 2010-08-11
US8766763B2 (en) 2014-07-01
JP2010183554A (ja) 2010-08-19

Similar Documents

Publication Publication Date Title
US11785134B2 (en) User interface that controls where sound will localize
EP3466113B1 (en) Method, apparatus and computer-readable media for virtual positioning of a remote participant in a sound space
EP3566224A1 (en) An audio communication system and method
US11082771B2 (en) Directed audio system for audio privacy and audio stream customization
JP2005341092A (ja) 音声コミュニケーション・システム
KR20060022053A (ko) Av 시스템 및 그 튜닝 방법
EP2214425A1 (en) Binaural audio guide
US11356561B2 (en) Systems and methods for providing headset voice control to employees in quick-service restaurants
JP4743305B2 (ja) 境界定義による機能制御方法、境界定義による機能制御システム、境界定義による機能制御サーバ及びプログラム
JP4844093B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
US20230413003A1 (en) Audio processing in a virtual environment
JP5493551B2 (ja) 情報処理システム、情報処理装置、及び情報処理方法
JP2006094315A (ja) 立体音響再生システム
Cohen et al. Applications of Audio Augmented Reality: Wearware, Everyware, Anyware, and Awareware
US11889187B1 (en) Computer program product and method for auto-focusing one or more lighting fixtures on selected persons in a venue who are performers of a performance occurring at the venue
US11877058B1 (en) Computer program product and automated method for auto-focusing a camera on a person in a venue who is wearing, or carrying, or holding, or speaking into a microphone at the venue
US11889188B1 (en) Computer program product and method for auto-focusing one or more cameras on selected persons in a venue who are performers of a performance occurring at the venue
US11902659B1 (en) Computer program product and method for auto-focusing a lighting fixture on a person in a venue who is wearing, or carrying, or holding, or speaking into a microphone at the venue
WO2023281820A1 (ja) 情報処理装置、情報処理方法、記憶媒体
EP1617702A1 (en) Portable electronic equipment with 3D audio rendering
CN117714426A (zh) 用于视听会议中的可穿戴音频设备的动态音频馈送
WO2019082520A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Ahrens et al. Designing low-dimensional interaction for mobile navigation in 3d audio spaces

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110322

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110425

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees