JP2019200811A - 表示制御方法、情報処理装置及び表示制御プログラム - Google Patents

表示制御方法、情報処理装置及び表示制御プログラム Download PDF

Info

Publication number
JP2019200811A
JP2019200811A JP2019139589A JP2019139589A JP2019200811A JP 2019200811 A JP2019200811 A JP 2019200811A JP 2019139589 A JP2019139589 A JP 2019139589A JP 2019139589 A JP2019139589 A JP 2019139589A JP 2019200811 A JP2019200811 A JP 2019200811A
Authority
JP
Japan
Prior art keywords
object data
numbering
display
displayed
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019139589A
Other languages
English (en)
Inventor
恭介 今村
Kyosuke Imamura
恭介 今村
伊織 村上
Iori Murakami
伊織 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019139589A priority Critical patent/JP2019200811A/ja
Publication of JP2019200811A publication Critical patent/JP2019200811A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】表示されたオブジェクトデータの選択性を向上することを目的とする。【解決手段】ディスプレイの表示範囲に含まれるオブジェクトデータの数に応じた数の識別情報を生成し、前記表示範囲に含まれる前記オブジェクトデータの各々に、生成した識別情報の各々を対応づけて表示する、処理をコンピュータが実行することを特徴とする表示制御方法が提供される。【選択図】図2

Description

本発明は、表示制御方法、情報処理装置及び表示制御プログラムに関する。
近年、様々な表示装置が開発され、様々な大きさや形の画面に画像を表示する技術が開発されている。例えば、ヘッドマウントディスプレイ(以下、「HMD」ともいう。)やスマートフォンやタブレット型の端末に設けられたカメラによりキャプチャされた画像を用いた拡張現実(Augmented Reality:AR)の技術が知られている(例えば、特許文献1参照)。AR技術の一例では、カメラによりキャプチャされたマークから特定されるオブジェクトデータが現実空間の景色等に重畳して表示される。
HMDでは、画面が眼前にあり、画面に直接タッチすることで入力操作を行うことは構造上困難である。他方、スマートフォン等の端末では画面に直接触れることで入力操作を行うことは容易である。しかしながら、端末の画面を見ながら両手を使って何らかの作業をする場合、タッチ操作以外の入力操作により作業の効率を向上させることが好ましい。タッチ操作以外の入力操作としてジェスチャーやコントローラを用いることが考えられる。しかしながら、この場合にも手を使ってジェスチャーやコントローラを操作しなければならず、両手を使って作業をしながら入力操作を行うことは困難である。これに対して、音声認識による入力操作では、両手を使って作業をしながら入力操作を行うことができる。
特開2012−103789号公報
しかしながら、音声入力では、画面上に表示されたオブジェクトデータに対応づけられた識別情報(例えば文字や記号を含む)を発声することで、所望のオブジェクトデータを選択することになる。ところが、オブジェクトデータに対応づけられた識別情報よっては、オブジェクトデータの音声による選択が困難となることがある。例えば、識別情報に含まれる文字や記号などの数が多い場合、識別情報に含まれる文字や記号などの配置に十分な規則性が無い場合、識別情報に含まれる文字や記号などの配置が複雑である場合、音声によるオブジェクトデータの選択が困難となることがある。
そこで、一側面では、本発明は、表示されたオブジェクトデータの選択性を向上することを目的とする。
一つの案では、端末装置の位置情報に応じた複数のオブジェクトデータのうち、前記端末装置のディスプレイへの表示の対象とするオブジェクトデータを特定し、特定した前記オブジェクトデータの数に応じた数の識別情報を生成し、特定した前記オブジェクトデータの各々に、生成した識別情報の各々を対応づけて表示する、処理を前記端末装置が実行することを特徴とする表示制御方法が提供される。
一側面によれば、表示されたオブジェクトデータの選択性を向上することができる。
一実施形態にかかるHMDの機能構成の一例を示す図。 一実施形態にかかるオブジェクトデータの採番を説明するための図。 一実施形態にかかるHMDのハードウェア構成例を示す図。 第1実施形態にかかる画面の表示制御処理の一例を示すフローチャート。 第1実施形態にかかる画面の採番処理の一例を示すフローチャート。 第1実施形態にかかる採番リストテーブルの一例を示す図。 一実施形態にかかる辞書テーブルの一例を示す図。 第2実施形態にかかる画面の表示制御処理の一例を示すフローチャート。 第2実施形態にかかる採番済みオブジェクトデータ処理の一例を示すフローチャート。 第2実施形態にかかる視点移動に応じた採番の一例を説明するための図。 第2実施形態にかかる未採番オブジェクトデータ処理の一例を示すフローチャート。 第3実施形態にかかる画面の採番処理の一例を示すフローチャート。 第3実施形態にかかるオブジェクトデータの採番を説明するための図。 第3実施形態にかかる位置情報テーブルの一例を示す図。 第3実施形態にかかる採番リストテーブルの一例を示す図。 第3実施形態の変形例にかかるオブジェクトデータの採番を説明するための図。 第3実施形態の変形例にかかる採番リストテーブルの一例を示す図。
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
[HMDの機能構成例]
まず、一実施形態に係るHMD1の機能構成の一例について、図1を参照しながら説明する。HMD1は、情報処理装置の一例である。情報処理装置は、撮像部及び表示部を有し、情報を処理可能な機器であればよく、例えばタブレット型端末やスマートフォンPDA、(Personal Digital Assistants)、ノート型PC(Personal Computer)、ゲーム機器、携帯電話等の端末であってもよい。また、情報処理装置は必ずしも通信部を有していなくてもよい。
HMD1は、撮像部10、画像認識部11、ARマーカ認識部12、記憶部13、表示部14、通信部15、音声入力部16、音声認識部17及び生成部18を有する。撮像部10は、例えば予め設定された画角内の実空間を撮影する。撮像画像は、動画像(映像)でもよく、静止画像でもよく、動画像の場合には、複数の画像フレームを有する。撮像部10は、例えばカメラであるが、これに限定されるものではない。HMD1は、カメラ等の撮像部10により、実空間上にあるARマーカを含む画像を撮影する。
画像認識部11は、撮像部10が撮影した画像に含まれるARマーカを検出する。また、画像認識部11は、検出したARマーカの位置情報等を取得する。ARマーカ認識部12は、画像認識部11がARマーカを検出した場合、記憶部13に予め登録されたオブジェクトデータ管理テーブル2に基づき、ARマーカに対応付けて登録されたオブジェクトデータを取得する。オブジェクトデータ管理テーブル2は、HMD1の内部で管理されてもよいし、ネットワークを介してHMD1と通信可能な他の機器で管理されてもよい。本実施形態では、図1に示すように、記憶部13が、ARマーカ2a及びARマーカに対応付けて登録されたオブジェクトデータ2bをオブジェクトデータ管理テーブル2に登録し、管理する。
ここで、ARマーカとは、例えばオブジェクトデータ等の各種コンテンツや表示する位置等を指定するための標識となるものである。ARマーカは、例えば二次元コード等のように、所定の領域内に所定の模様や文字パターン等が形成された画像等であるが、これに限定されるものではない。また、オブジェクトデータは、例えば実空間に対応する三次元の仮想空間上に配置された三次元物体のモデルデータ等であり、実空間の所定のオブジェクトに重畳して画面上に表示されるデータである。
このように本実施形態におけるオブジェクトデータは、例えばARマーカ等に対応付けられており、例えばテキスト、アイコン、アニメーション、マーク、模様、画像、映像(動画像)等の様々な形態が含まれる。また、ARオブジェクトは、表示出力されるものに限定されず、例えば音声等の情報であってもよい。
画像認識部11は、図2に示すように、撮影画像に含まれるARマーカ30を検出する。ARマーカ認識部12は、ARマーカ30に対応するオブジェクトデータをオブジェクトデータ管理テーブル2から抽出する。表示部14は、画面44上の所定位置に、抽出したオブジェクトデータ21a、21b、21c(以下、総称して「オブジェクトデータ21」ともいう。)を表示する。
記憶部13は、本実施形態における表示制御処理を実行するために必要となるプログラムや各種データを記憶する。例えば、記憶部13は、オブジェクトデータ管理テーブル2の他、後述される採番リストテーブル40、辞書テーブル50及び位置情報テーブル60を有する。
音声入力部16は、ユーザの音声を入力する。音声認識部17は、入力した音声から音声コマンドを認識し、辞書テーブル50に基づき音声コマンドに対応する操作対象を抽出する。
表示部14は、オブジェクトデータ21a、21b、21cを実空間上のオブジェクトに重畳して画面上に表示する。本実施形態では、表示部14は、例えばHDM1の眼鏡形状のディスプレイである。
生成部18は、表示されているオブジェクトデータ21の各々に、該オブジェクトデータに応じた番号を付与する。オブジェクトデータに付される番号は、オブジェクトデータの識別情報の一例である。本実施形態では、オブジェクトデータ21に、数字が付与される。しかし、オブジェクトデータの識別情報は、これに限らず、数字、文字、記号又はこれらの組み合わせであってもよい。
[HMDのハードウェア構成例]
次に、HMD1のハードウェア構成の一例について、図3を参照しながら説明する。HMD1は、入出力装置101、表示装置102、ドライブ装置103、主記憶装置104、補助記憶装置105、CPU106、通信装置107、カメラ108及びセンサ109を有し、これらはシステムバスBで相互に接続されている。
入出力装置101は、操作信号を入力するために用いられる。入出力装置101は、音声を入力するためのマイクロフォン(以下、「マイク」という)及びスピーカを有する。マイクは、ユーザが発した音声やその他の音を入力する。スピーカは、通話相手先の音声を出力したり、着信音等の音を出力したりする。マイクは、例えば、通話機能等により通話相手と会話するとき等に用いることができるが、これに限定されるものではなく、音声による入力操作に用いることができる。図1の音声入力部16の機能は、入出力装置101のマイクにより実現可能である。
表示装置102は、ユーザに対してOS(Operating System)や各種アプリケーションで設定された画面(例えば、実空間にARのオブジェクトが重畳された画像等)を表示する。表示装置102は、例えばLCD(Liquid Crystal Display)や有機EL(Electro Luminescence)等のディスプレイである。図1の表示部14の機能は、表示装置102により実現である。
ドライブ装置103は、例えば記録媒体103a等を着脱自在にセットすることができ、セットした記録媒体103aに記録された各種情報を読み込んだり、所定の情報を記録媒体103aに書き込むことができる。ドライブ装置103は、例えば媒体装填スロット等であるが、これに限定されるものではない。記録媒体103aは、上述したように実行プログラム等を格納するコンピュータで読み取り可能な記録媒体である。記録媒体103aは、例えばフラッシュメモリ等の半導体メモリであってもよい。また、記録媒体103aは、USBメモリ等の可搬型記録媒体であってもよいが、これに限定されるものではない。
主記憶装置104は、CPU106からの指示により補助記憶装置105から読み出された実行プログラム等を格納したり、プログラム実行中に得られる各種情報等を記憶する。主記憶装置104は、例えばROM(Read Only Memory)やRAM(Random Access Memory)等である。
補助記憶装置105は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等のストレージ手段である。補助記憶装置105は、CPU106からの制御信号に基づき、本実施形態における実行プログラム(表示制御プログラム)や、コンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。補助記憶装置105は、CPU106からの制御信号等に基づいて、記憶された各情報から必要な情報を読み出したり、書き込むことができる。主記憶装置104及び補助記憶装置105は、例えば記憶部13の一例である。
CPU106は、OS等の制御プログラム、及び主記憶装置104に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御する。
具体的には、CPU106は、アプリケーションの起動等に基づき、補助記憶装置105にインストールされたプログラムを実行させることにより、主記憶装置104上でプログラムに対応する処理を行う。例えばCPU106は、表示制御プログラムを実行させることで撮像部10による撮像、画像認識部11による画像認識、ARマーカ認識部12によるARマーカの認識、音声認識部17による音声認識、生成部18によるオブジェクトデータの採番等の処理を行う。また、CPU106は、表示制御プログラムを実行させることで、表示部14によるオブジェクトデータの重畳表示を制御する。ただし、CPU106における処理内容は、上述した内容に限定されるものではない。また、CPU106により実行された処理結果は、必要に応じて補助記憶装置105等に記憶される。
通信装置107は、他のコンピュータとのデータの送受信を可能とする通信インタフェースである。通信装置107は、例えば通信部15の一例である。カメラ108は、例えば予め設定された画角内の実空間の画像(動画像、静止画像)を撮影する。カメラ108は、例えば撮像部10の一例である。
センサ109は、GPS(Global Positioning System、全地球測位網)等により現時点のHMD1の位置を取得する。本実施形態では、表示部14は、ARマーカに応じたオブジェクトデータを重畳して表示する替わりに、GPSにより取り込んだ現在位置に応じたオブジェクトデータを重畳して表示してもよい。
本実施形態では、HMD1の本体のハードウェア構成に表示制御プログラムなどの実行プログラムをインストールすることで、ハードウェア資源とソフトウェアとが協働して本実施形態における表示制御処理等を実現することができる。
<第1実施形態>
[表示制御処理例]
次に、第1実施形態における表示制御処理及び採番処理の一例について図4の表示制御処理、図5の採番処理の一例を示すフローチャートを参照しながら説明する。図4のARの技術を用いたオブジェクトデータの重畳表示を行うためのARアプリケーションが起動すると(ステップS10)、撮像部10が撮影した撮像画像に含まれるARマーカ30に基づきオブジェクトデータを取得する(ステップS12)。
具体的には、画像認識部11は、撮像部10が撮影した画像に含まれるARマーカを検出する。また、画像認識部11は、検出したARマーカの位置情報等を取得する。ARマーカ認識部12は、オブジェクトデータ管理テーブル2からARマーカ30に対応するオブジェクトデータ21を抽出する。
表示部14は、ARマーカー30から重畳位置を読み取り、重畳位置にオブジェクトデータ21を表示する(ステップS14)。これにより、図2に一例を示すように、ARの技術を用いて実空間にオブジェクトデータ21a、21bを重ねて表示することができる。
図4に戻り、次に、音声認識部17は、モード変換が指示されたかを判定する(ステップS16)。例えば、音声入力部16がユーザの音声を入力し、音声認識部17が入力された音声を「モード」と認識した場合、表示部14は、図7に示す辞書テーブル50の音声コマンド51の「モード」に対応する操作対象52の「モード一覧画面」を画面に表示する。これにより、画面44が図2の(a)の非選択モードの画面からモード一覧画面(また、ウィザード等)に遷移する。ユーザが、モード一覧画面に表示された「選択モード」を音声により選択すると、音声入力部16はその音声を入力し、音声認識部17が入力音声に基づき「選択モード」であると判定する(ステップS18)。「選択モード」であると判定された場合、生成部18は、採番処理を実行し(ステップS20)、ステップS12に戻る。音声認識部17が入力音声に基づき「選択モード」でないと判定する場合、そのままステップS12に戻る。
ユーザが、モード一覧画面44に基づき「選択モード」を選択する手段は、音声に限られず、キーボードやマウスやタッチ操作であってもよい。ただし、両手を使って作業をしている場合、音声によりモード選択が行えることが好ましい。
なお、本実施形態では、例えば撮像部10による画像取得中は、ステップS12〜S20の処理が繰り返し行われる。
本実施形態では、ユーザが「モード」と発するとこれに応じて、画面が図2の(a)の非選択モードからモード一覧画面へと遷移する。モード一覧画面においてユーザが「選択モード」と発するとこれに応じて、画面がモード一覧画面から図2の(b)の選択モードへと遷移する。
しかしながら、モード一覧画面において選択モード以外のモードを実装する必要がなければモード一覧画面は省略してもよい。この場合、ユーザが「モード」と発するとこれに応じて、画面が図2の(a)の非選択モードから図2の(b)の選択モードへと遷移する。本実施形態では、音声の誤認識による誤動作を防止するためにモードを「非選択モード」と「選択モード」とに分けて各モードの画面を表示する。しかしながら、必ずしもモードを分けて表示する必要はない。
本実施形態では、図2の(b)の選択モードにおける画面が表示され、オブジェクトデータ21a、21bは選択可能であり、オブジェクトデータ21cは選択不可能である場合について説明を続ける。表示部14は、選択可能なオブジェクトデータ21a、21bは枠22で囲み、選択可能であることを強調表示により判別可能にしている。ただし、枠22による強調表示は行われなくてもよい。この時点では、オブジェクトデータ21a、21bに付与される番号「1」、「2」は表示されていないものとする。
(採番処理例)
図5は、図4のステップS20の採番処理の一例を示すフローチャートである。本採番処理では、まず、生成部18は、表示しているオブジェクトデータの一覧を取得する(ステップS202)。ここでは、図2の(b)に示すオブジェクトデータ21a、21b、21cが取得される。
次に、生成部18は、表示しているオブジェクトデータ21の一つを取得する(ステップS204)。ここでは、図2の(b)に示すオブジェクトデータ21cが取得されたとする。
次に、生成部18は、取得したオブジェクトデータ21aが選択可能かを判定する(ステップS206)。オブジェクトデータ21cは選択不可能であるため、ステップS218に進み、次に生成部18は、採番したオブジェクトデータ21aが最後のオブジェクトデータであるかを判定する(ステップS218)。採番したオブジェクトデータ21aが最後のオブジェクトデータでないと判定された場合、ステップS204に戻る。
次に、生成部18は、表示しているオブジェクトデータ21の一つを取得する(ステップS204)。ここでは、図2の(b)に示すオブジェクトデータ21aが取得されたとする。生成部18は、取得したオブジェクトデータ21aが選択可能かを判定する(ステップS206)。オブジェクトデータ21aは選択可能であるため、生成部18は、オブジェクトデータ21aが未採番かを判定する(ステップS208)。ここでは、オブジェクトデータ21aは未採番である。
よって、生成部18は、採番リストテーブル40のFIFO(First In First Out、先入れ先出し)配列の最大要素数がN(Nは任意の整数、ここでは、N=10)以上かを判定する(ステップS210)。本実施形態では、採番可能な最大要素数Nは「10」に設定されている。ただし、採番可能な最大要素数Nは任意の整数であればよい。
この時点では、採番リストテーブル40には何らのデータも記憶されていないため、N=0である。よって、生成部18は、オブジェクトデータ21aに対して番号「1」を採番する(ステップS212)。記憶部13は、採番された番号とオブジェクトデータ21aとを対応付けて採番リストテーブル40のFIFO配列の末尾に記憶する(ステップS212)。採番リストテーブル40の一例を図6に示す。採番リストテーブル40には、オブジェクトデータ42に対応した番号41が記憶される。以下では、オブジェクトデータ21aをオブジェクトデータ「A」、オブジェクトデータ21bをオブジェクトデータ「B」・・・として記憶する。採番リストテーブル40は、オブジェクトデータ42と、該オブジェクトデータの識別情報の一例である番号41とを関係づける関係情報の一例である。
本実施形態では、採番リストテーブル40はFIFO配列であり、図6の(a)に示すように各オブジェクトデータに対して採番された番号が採番リストテーブル40の一番目から順に記憶される。
よって、この時点では、図6の(a)に示す採番リストテーブル40の一番上において、採番された番号41「1」とオブジェクトデータ42「A」とが記憶される。
図5に戻り、次に表示部14は、採番された番号「1」をオブジェクトデータ42「A」で特定されるオブジェクトデータ21aの近傍に表示する(ステップS216)。この結果、図2の(b)に示すように、オブジェクトデータ21aの近傍にて採番された番号「1」23が表示される。
図5に戻り、次に生成部18は、採番したオブジェクトデータ21aが最後のオブジェクトデータであるかを判定し(ステップS218)、最後のオブジェクトデータの場合、本処理を終了する。この時点では、オブジェクトデータ21bが採番されていない。よって、生成部18は、採番したオブジェクトデータ21aが最後のオブジェクトデータでないと判定し、ステップS204に戻る。
同様にして、ステップS204〜ステップS212の処理を繰り返すことで、図6の(a)に示す採番リストテーブル40の二番目において、採番された番号41「2」とオブジェクトデータ42「B」とが記憶される。また、図2の(b)に示すように、オブジェクトデータ42「B」で特定されるオブジェクトデータ21bの近傍にて採番された番号「2」23が表示される。
図5に戻り、次に生成部18は、採番したオブジェクトデータ21aが最後のオブジェクトデータであるかを判定する(ステップS218)。この時点では、生成部18は、オブジェクトデータ21bが最後のオブジェクトデータであると判定し、本処理を終了する。
なお、本実施形態では、図2の画面上のオブジェクトデータ21が3つのため、ステップS214には進まずに本処理が終了した。しかし、10個のオブジェクトデータに対して番号が採番された後、次のオブジェクトデータに対してステップS204〜ステップS210の処理が実行されると、採番リストテーブル40に登録された最大要素数Nは「10」である。このため、ステップS214に進み、First In First Outの規則に従い、図6の(b)の最初に採番リストテーブル40に記憶されたオブジェクトデータ42「A」及び番号41「1」が採番リストテーブル40から消去される。次に、ステップS212において生成部18は、新たなオブジェクトデータに番号を付し、記憶部13は、新たなオブジェクトデータ42と採番された番号41とを採番リストテーブル40の末尾に記憶する。これにより、図6の(c)に示すようにオブジェクトデータ42が「K」で示される新たなオブジェクトデータと採番された番号41「1」とが採番リストテーブル40に記憶される。また、画面上の新たなオブジェクトデータの近傍に採番された番号「1」が表示される。
なお、本実施形態では、オブジェクトデータ毎に1〜9までの異なる番号(整数)を付して表示した。しかしながら、番号の替わりにオブジェクトデータ毎に異なる文字列や異なる記号を付してもよい。オブジェクトデータ毎に数字、文字、記号又はこれらの組み合わせを付してもよい。
本実施形態によれば、比較的少ない数の番号を用いて、各オブジェクトデータに対して画面内で一意の番号を表示することができる。これにより、オブジェクトデータを表示する画面の視認性の低下を抑制することができる。例えば、図6の(b)では、選択可能なオブジェクトデータ21aに「1」、オブジェクトデータ21bに「2」が付されている。このため、本実施形態では、音声によりいずれかのオブジェクトデータ21を正確に選択することができる。例えば、図6の(b)の表示画面においてユーザが「いち」と発声すると、音声認識部17は、「いち」と認識する。生成部18は、辞書テーブル50を検索して音声コマンド51「いち」に対応する操作対象52の「1が付されたオブジェクトデータ」を特定し、図6の(b)の画面上のオブジェクトデータ21aを選択する。
以上に説明したように、第1実施形態にかかる表示制御処理及び採番処理によれば、選択可能な各オブジェクトデータ21に番号を付して表示することで、オブジェクトデータ21を表示する画面の視認性の低下を抑制することができる。また、ユーザがオブジェクトデータ21に付された番号のいずれかを音声入力することでユーザが希望するオブジェクトデータ21を正確に選択することができる。
特に、HMD1のように画面が小さくかつ眼の近くにオブジェクトデータ21が存在する場合、密集して配置されたオブジェクトデータを指定する際にタッチ操作やジェスチャー操作は難しく、どのオブジェクトデータを指定したかの判別が困難になる場合がある。この結果、オブジェクトデータを指定する際に指定の精度が悪くなる。しかしながら、第1実施形態にかかる表示制御処理及び採番処理によれば、選択可能な各オブジェクトデータ21に番号を付して表示することで、オブジェクトデータ21を表示する画面の視認性の低下を抑制することができる。また、ユーザがその番号を音声等により入力することで、ユーザが指示したオブジェクトデータ21を誤りなく選択することができる。
さらに、本実施形態では、HMD1がサーバと接続されない環境であるため、辞書テーブル50のサイズが限定され、図7に一例を示す辞書テーブル50に登録可能な音声コマンドは最大で40種類程度になる。このような状況において、本実施形態にかかる採番処理によれば、選択可能な各オブジェクトデータに10個程度の異なる番号を付して表示する。これにより、HMD1のように、辞書テーブル50に登録可能な音声コマンドの数が限定される環境においてもオブジェクトデータ21を表示する画面の視認性の低下を抑制することができる。また、オブジェクトデータ21に付された番号により、表示されたオブジェクトデータ21の選択性を向上することができる。
なお、本実施形態、他の実施形態及び変形例にかかる採番リストテーブル40は、採番リストテーブル40のFIFO(First In First Out、先入れ先出し)方式に替えて、LRU(Least Recently Used)方式を採用してもよい。LRU方式の場合、最近もっとも使われなかったオブジェクトデータから優先的に消去される。
<第2実施形態>
[表示制御処理例]
次に、第2実施形態における表示制御処理の一例について図8の表示制御処理、図9の採番済オブジェクトデータ処理及び図11の未採番オブジェクトデータ処理の一例を示すフローチャートを参照しながら説明する。図8の例において、ARアプリケーションが起動すると(ステップS10)、画像認識部11は、撮像部10がキャプチャした撮影画像に含まれるARマーカを検出する。ARマーカ認識部12は、オブジェクトデータ管理テーブル2からARマーカに対応するオブジェクトデータ21を取得する(ステップS12)。表示部14は、ARマーカーから重畳位置を読み取り、重畳位置にオブジェクトデータを表示する(ステップS14)。次に、採番済みオブジェクトデータ処理が実行され(ステップS30)、その後、未採番オブジェクトデータ処理が実行される(ステップS40)。
(採番済みオブジェクトデータ処理例)
図9は、図8のステップS30の採番済みオブジェクトデータ処理の一例を示すフローチャートである。本処理では、以下の変数が使用される。
n:カウンタ変数
N:採番リストテーブル40のn番目の採番
Tn:採番Nに紐づくオブジェクトデータが連続で非表示となっている時間
Ts:非表示状態での採番保持時間(Ts≧0)
なお、採番保持時間Tsは予め定められている。また、Tn及びTsの値は、記憶部13に保持されている。
まず、生成部18は、カウンタ変数nに「0」を設定する(ステップS302)。次に、生成部18は、カウンタ変数nに「1」を加算する(ステップS304)。次に、生成部18は、採番リストテーブル40からn番目の採番Nを取得する(ステップS306)。次に、生成部18は、採番リストテーブル40からn番目の採番Nの取得に成功したかを判定する(ステップS308)。生成部18は、採番リストテーブル40からn番目の採番Nの取得に失敗したと判定した場合、本処理を終了する。他方、生成部18は、採番リストテーブル40からn番目の採番Nの取得に成功したと判定した場合、採番Nに対応して採番リストテーブル40に記憶されたオブジェクトデータが画面内に存在するかを判定する(ステップS310)。生成部18は、採番Nに紐付けられたたオブジェクトデータが画面内に存在すると判定した場合、採番Nに紐づくオブジェクトデータが連続で非表示となっている時間Tnをリセット(Tn=0)し(ステップS312)、ステップS304に戻る。
生成部18は、採番Nに紐付けられたたオブジェクトデータが画面内に存在しないと判定した場合、採番Nに紐づくオブジェクトデータが連続で非表示となっている時間Tnを更新する(ステップS314)。
次に、生成部18は、採番Nに紐づくオブジェクトデータが連続で非表示となっている時間Tnが非表示状態での採番保持時間Tsよりも長いかを判定する(ステップS316)。非表示となっている時間Tnが採番保持時間Ts以下の場合、ステップS304に戻る。他方、非表示となっている時間Tnが採番保持時間Tsよりも長い場合、生成部18は、採番リストテーブル40から採番Nを削除し(ステップS318)、ステップS304に戻る。
これによれば、HMD1を装着したユーザが、視点を右側に移動させたことによりオブジェクトデータ21が図10の(a)から図10の(b)へ変化した場合にも、画面44外へ移動したオブジェクトデータ21aの採番Nを一定時間残すことができる。つまり、オブジェクトデータ21aが、非表示となっている時間Tnが非表示状態での採番保持時間Ts以下の場合、オブジェクトデータ21aの採番N「1」は保持される。この間に、ユーザが、視点を左側に移動させたことによりオブジェクトデータ21が図10の(b)から図10の(a)へ変化した場合、オブジェクトデータ21aの近傍には番号23の「1」が再表示される。これにより、短時間の視点往復等により同一オブジェクトデータ21aに付与される番号が変化してしまうことを防ぐことができる。また、一度オブジェクトデータ21の何れかに付された番号は、オブジェクトデータ21が画面上に表示されなくても一定時間同じ番号を表示させないことにより誤選択を防ぐことができる。
他方、本実施形態では、一定時間経過後は採番Nは失効し、他オブジェクトデータへの該番号の割り当てが許可される。例えば、オブジェクトデータ21aが、非表示となっている時間Tnが非表示状態での採番保持時間Tsよりも長い場合、オブジェクトデータ21aの採番N「1」は採番リストテーブル40から削除され、他オブジェクトデータへの該番号「1」の割り当てが可能になる。これにより、少ない数の採番を用いたオブジェクトデータ21の指定が可能になる。この結果、画面上で位置が変化するオブジェクトデータ21に対しても所望のオブジェクトデータ21を精度良く選択できる。
(未採番オブジェクトデータ処理例)
図11は、図8のステップS40の未採番オブジェクトデータ処理の一例を示すフローチャートである。本処理では、以下の変数が使用される。
m:カウンタ変数
M:最大採番数(1≦M)
まず、生成部18は、未採番のオブジェクトデータ21が画面内に存在するかを判定する(ステップS402)。生成部18は、未採番のオブジェクトデータ21が画面内に存在しないと判定した場合、本処理を終了する。他方、生成部18は、未採番のオブジェクトデータ21が画面内に存在すると判定した場合、未採番のオブジェクトデータ21が選択可能かを判定する(ステップS404)。生成部18は、未採番のオブジェクトデータ21が選択不可能であると判定した場合、ステップS402に戻る。
他方、生成部18は、未採番のオブジェクトデータ21が選択可能であると判定した場合、カウンタ変数mに「0」を設定する(ステップS406)。次に、生成部18は、カウンタ変数mに「1」を加算する(ステップS408)。次に、生成部18は、カウンタ変数mが最大採番数M(1≦M)よりも大きいかを判定する(ステップS410)。生成部18は、カウンタ変数mが最大採番数Mよりも大きいと判定した場合、本処理を終了する。
他方、生成部18は、カウンタ変数mが最大採番数M以下であると判定した場合、カウンタ変数mが採番リストテーブル40に存在するかを判定する(ステップS412)。カウンタ変数mが採番リストテーブル40に存在すると判定された場合、ステップS408に戻り、ステップS412にてカウンタ変数mが採番リストテーブル40に存在しないと判定されるまでステップS408〜S412の処理を繰り返す。
生成部18は、ステップS412にてカウンタ変数mが採番リストテーブル40に存在しないと判定した場合、未採番のオブジェクトデータ21に採番mを紐付け、採番リストテーブル40に番号mを記憶し、ステップS402に戻る。
以上に説明したように、第2実施形態にかかる表示制御処理及び採番処理によれば、選択可能な各オブジェクトデータ21に番号を付して表示することで、オブジェクトデータ21を表示する画面の視認性の低下を抑制することができる。また、ユーザがオブジェクトデータ21に付された番号を音声入力することで、表示されたオブジェクトデータ21の選択性を向上することができる。
また、第2実施形態にかかる表示制御処理及び採番処理によれば、画面44外へ移動したオブジェクトデータ21aの採番Nを一定時間残すことができる。これにより、短時間の視点往復等により同一オブジェクトデータ21aに付与される番号が変化してしまうことによる画面の視認性の低下を抑制することができる。また、一度オブジェクトデータ21の何れかに付された番号は、オブジェクトデータ21が画面上に表示されなくても一定時間同じ番号を表示させないことにより誤選択を防ぐことができる。
<第3実施形態>
[表示制御処理例]
次に、第3実施形態における表示制御処理の一例について図12の採番処理の一例を示すフローチャートを参照しながら説明する。第3実施形態における表示制御処理は、第1実施形態にかかる表示制御処理(図4)にて呼び出される採番処理(S20:図5)のみが図12の採番処理に替わる。よって、第3実施形態では、図12の採番処理のみ説明する。また、図12の採番処理において、第1実施形態にかかる採番処理と同じステップには同一ステップ番号を付し、説明を省略する。
第3実施形態では、採番に適用される番号数が限定される場合において、大量のオブジェクトデータ21への採番を可能にする。例えば、図13の(a)に示すように、本実施形態では、画面上の位置などでオブジェクトデータ21(第1のオブジェクトデータの一例)がグループ化され、グループ毎に採番することが可能である。そして、ユーザが複数のグループのうちのいずれかを音声により選択した場合、選択されたグループ内の個々のオブジェクトデータが再採番される。例えば、図13の(a)の画面が表示されている場合において音声によりグループ2が選択された場合、図13の(b)に示すように、グループ2に含まれる三つのオブジェクトデータ21(第2のオブジェクトデータの一例)が再採番される。これにより、採番に適用される番号数が限定される場合においても大量のオブジェクトデータ21への採番が可能になる。
図12の採番処理が開始されると、ステップS202〜S210の処理が実行される。その後、ステップS212において、生成部18は、図13の(a)に示すオブジェクトデータ21のうち、取得したオブジェクトデータ21の表示位置を位置情報テーブル60に基づき特定する。位置情報テーブル60は、図14に一例を示すように、オブジェクトデータ61及びオブジェクトデータの座標情報62が記憶されている。ここでは、オブジェクトデータ21aの表示位置が位置情報テーブル60に基づき特定されるとする。生成部18は、オブジェクトデータ「A」にて特定されるオブジェクトデータ21aの座標(x、y)を特定する。生成部18は、オブジェクトデータ21aの座標(x、y)が特定の表示領域に含まれる場合、オブジェクトデータ「A」にて特定されるオブジェクトデータ21aに対してグループ番号を付与する(ステップS212)。
記憶部13は、採番された番号とオブジェクトデータ「A」とを対応付けて採番リストテーブル40のFIFO配列の末尾に記憶する(ステップS212)。本実施形態における採番リストテーブル40の一例を図15に示す。採番リストテーブル40には、オブジェクトデータ42「A」に対応して採番した番号(グループ番号)41「G1」が記憶される。なお、オブジェクトデータ21aの座標(x、y)が特定の表示領域に含まれない場合、生成部18は、オブジェクトデータ42「A」に対応してグループ番号でない番号41を採番する。この場合、採番リストテーブル40には、オブジェクトデータ42「A」に対応してグループ番号でない番号41「1」が記憶される。つまり、本実施形態では、番号41の頭文字に「G」を付けることにより、グループ番号をグループ番号でない番号と識別可能とする。ただし、番号の付与の方法はこれに限らず、グループ番号とグループ番号でない番号とが識別可能に採番リストテーブル40の番号41に記憶されればよい。
図12に戻り、表示部14は、採番された番号を表示する(ステップS216)。表示部14は、採番リストテーブル40に記憶された番号41がグループ番号の場合、グループ番号に対応する番号(例えば、番号41に記憶された番号から「G」の頭文字を取り除いた番号)を表示してもよい。表示部14は、「G」の頭文字が付されたグループ番号そのものを表示してもよい。図13の(a)では、「G」の頭文字を取り除いた番号が表示されている。次にステップS218に進み、生成部18は、採番したオブジェクトデータ21aが最後のオブジェクトデータであるかを判定する(ステップS218)。採番したオブジェクトデータ21aが最後のオブジェクトデータでないと判定された場合、ステップS204に戻り、ステップS204〜S208の処理が実行される。
ステップS208において取得したオブジェクトデータが採番済みである場合、生成部18は、ユーザが音声により番号を選択し、かつその選択された番号がグループ番号であるかを判定する(ステップS502)。生成部18は、選択された番号がグループ番号でないと判定した場合、ステップS218に進む。他方、生成部18は、選択された番号がグループ番号であると判定した場合、FIFO配列の採番リストテーブル40を初期化する(ステップS504)。次に、生成部18は、選択されたグループ内のオブジェクトデータのそれぞれに番号を付与し、初期化されたFIFO配列の末尾(一行目)から順に記憶する(ステップS212)。表示部14は、付与された番号を該当オブジェクトデータ21の近傍に表示する。
図13の(a)に対して音声により「2」が選択された場合、番号「2」はグループ番号である。よって、図13の(b)に示すように、グループ「2」内の各オブジェクトデータ21a、21b、21cのそれぞれに番号「1」、「2」、「3」がそれぞれ再採番され、画面に表示される。再採番されたときの採番リストテーブル40の一例を図15の(b)に示す。
以上に説明したように、第3実施形態における表示制御処理及び採番処理によれば、音声により採番された番号を指定することで採番を切り替えることができる。これにより、採番する番号数が限定される場合であって、大量のオブジェクトデータを表示する場合においても画面の視認性の低下を抑制することができる。また、表示されたオブジェクトデータの選択性を向上することができる。
<第3実施形態の変形例>
次に、第3実施形態の変形例について、図16を参照しながら説明する。本変形例においても採番する番号数が限定される場合において、大量のオブジェクトデータ21への採番を可能にする。
例えば、本変形例では、生成部18は、画面上のオブジェクトデータ21の位置に基づき一定数のオブジェクトデータ21まで採番する。生成部18は、採番されなかったオブジェクトデータ21に共通の番号又は記号等を付す。例えば、図16の(a)に示す例では、生成部18は、ラスター走査のように画面の左上から下方向、右へずらして再び下方向へ走査しながら採番を行う。
例えば、採番を「5」に制限した場合、オブジェクトデータ21a、21b、21c、21d、21e(第1のオブジェクトデータの一例)に「1」、「2」、「3」、「4」、「5」の番号がそれぞれ割り振られる。また、それ以外のオブジェクトデータ21f、21g、21h、21i、21jには「0」のグループ番号が割り振られる。このときの採番リストテーブル40の一例を図17の(a)に示す。
この状態で、ユーザが音声により「0」番号を選択した場合、図12のステップS502、S504、S212の処理が実行される。これにより、図17の(b)の採番リストテーブル40に示すように、オブジェクトデータ21f、21g、21h、21i、21j(第2のオブジェクトデータの一例)が再採番される。この結果、図16の(b)に示すように、オブジェクトデータ21f、21g、21h、21i、21jに「1」、「2」、「3」、「4」、「5」の番号がそれぞれ割り振られる。また、それ以外のオブジェクトデータ21a、21b、21c、21d、21eには「0」の番号が割り振られる。
以上に説明したように、第3実施形態の変形例における表示制御処理及び採番処理によれば、音声により採番された番号を指定することで採番を切り替えることができる。これにより、採番する番号数が限定される場合において、大量のオブジェクトデータを表示する画面の視認性の低下を抑制することができる。また、表示されたオブジェクトデータの選択性を向上することができる。
なお、上記各実施形態によれば、「モード変更」のコマンド以外は一般的な単語(番号等)を用いて音声認識によるオブジェクトデータの選択を実現することができる。よって、大容量の専用の辞書DBを必要としない。このため、サーバに接続することなく、HMD1が保持する辞書テーブル50に基づき、採番処理及び表示制御処理を行うことができる。
例えば、図7に示す辞書テーブル50では、ポインタ53を有し、「つぎ」、「ネクスト」、「みぎ」、「した」等の音声コマンド51が認識された場合、操作対象52を「次ポインタ」にする。例えば、現ポインタが操作対象52の「2が付されたオブジェクトデータ」を指す場合、ユーザが「つぎ」、「ネクスト」、「右」、「した(または、うえ)」等の音声を発した場合には、操作対象は、次ポインタの「3が付されたオブジェクトデータ」になる。同様に、ユーザが「まえ」、「ひだり」、「うえ(または、した)」等の音声を発した場合には、操作対象は、前ポインタの「1が付されたオブジェクトデータ」になる。
HMD1は、ネットワークを介してサーバに接続されるようにしてもよい。この場合、通信部15は、ネットワークによりサーバ等の外部装置等とのデータの送受信を行う。また、サーバがオブジェクトデータ管理テーブル2、採番リストテーブル40、辞書テーブル50、位置情報テーブル60を管理する。サーバは、通信部15から送信されるARマーカに対するオブジェクトデータに採番した番号をHMD1に返信することでHMD1の画面上にオブジェクトデータ及び該オブジェクトデータに割り振られた番号を表示するようにしてもよい。
サーバは、クラウドコンピューティングにより構成されるクラウドサーバであってもよい。このように上記実施形態においてHMD1等のクライアントが実行した採番処理をサーバ側で行ってもよい。この場合、辞書テーブル50に記憶可能な音声コマンドを増やすことができる。
オブジェクト名の定義については、オブジェクトデータ毎に音声認識の際に使用するオブジェクト名を定義し、クライアントではそのオブジェクト名を用いて選択を実行してもよい。
採番する固定番号の定義については、サーバ側であらかじめオブジェクトデータ毎に固定の番号が割り振られてもよい。オブジェクトデータ毎に固定の番号が割り振られるため、ユーザは常に同じ番号によりオブジェクトデータを選択することができる。但し、オブジェクトデータの数だけ採番する番号数が必要になる。
オブジェクトデータに動的に採番を行うことも考えられる。この場合、サーバで動的に採番を行い、その都度サーバから採番された番号をクライアント側で取得し、クライアント側にてオブジェクトデータに対応させて番号を表示するようなシステムが考えられる。該システムでは、サーバが採番中の番号を管理し、オブジェクトデータの送付の際にオブジェクトデータとともに空き番号を送付する。HMD1等のクライアントは、オブジェクトデータの要求の際に表示しなくなった番号の情報をサーバに送付する。
なお、以下のような拡張も考えられる。例えば、選択と決定操作が分かれている場合、キャンセル操作に固定の採番(0等)をすることで選択と同一の規則でキャンセル操作を実行できる。オブジェクトデータの採番の際、ラベリングに規則を設けてもよい。例えば、図16の(a)に示すように、ラスター走査のように左上から下方向、右へずらして再び下方向へ走査するようにラベリングの規則を持たせることにより、位置的に近いオブジェクトデータの番号等を見分けやすくなる。
また、採番規則を工夫してもよい。FIFOやLRUにより、未採番のオブジェクトデータが発生した際に採番及び失効を同時に実施してもよい。
以上、表示制御方法、情報処理装置及び表示制御プログラムを上記実施形態により説明したが、本発明にかかる表示制御方法、情報処理装置及び表示制御プログラムは上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。
例えば、上記各実施形態等では、操作対象のオブジェクトデータ等に音声コマンド51が対応付けられ、図7に一例を示す辞書テーブル50に予め記憶されている例を挙げて説明した。しかしながら、本発明では、辞書テーブル50に予め記憶され、ユーザインターフェース(UI)にて既に使用されている音声コマンドを除外して動的にオブジェクトデータに音声コマンドを割り振り、割り振った音声コマンドによりオブジェクトデータを操作(選択)できるようにしてもよい。この場合、新たに割り振られたオブジェクトデータと音声コマンドとは対応付けて辞書テーブル50に記憶される。
以上の説明に関し、更に以下の項を開示する。
(付記1)
ディスプレイの表示範囲に含まれるオブジェクトデータの数に応じた数の識別情報を生成し、
前記表示範囲に含まれる前記オブジェクトデータの各々に、生成した識別情報の各々を対応づけて表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記2)
前記表示範囲に含まれる前記オブジェクトデータのうち、選択可能なオブジェクトデータを特定し、
特定した前記オブジェクトデータの各々に、該オブジェクトデータの識別情報の各々を対応づけて表示する、
ことを特徴とする付記1に記載の表示制御方法。
(付記3)
前記表示範囲に含まれる前記オブジェクトデータの表示位置に応じて、前記オブジェクトデータの識別情報を生成する、
ことを特徴とする付記1に記載の表示制御方法。
(付記4)
前記オブジェクトデータの各々に対応づけて表示する前記識別情報には順序が割り当てられており、前記表示範囲に含まれる前記オブジェクトデータについて、前記表示範囲の左側に表示されるオブジェクトに対して、前記表示範囲の右側に表示されるオブジェクトよりも、前の順を示す識別情報を付与する、
ことを特徴とする付記1に記載の表示制御方法。
(付記5)
入力された音声情報を解析して、前記音声情報に所定の指示を示す音声が含まれていることを検出すると、第1のオブジェクトデータの選択から、選択順が該第1のオブジェクトデータの次に該当する第2のオブジェクトデータの選択に切り替える、
ことを特徴とする付記4に記載の表示制御方法。
(付記6)
前記音声は、右、又は、次、又は、ネクストに対応する音声である、
ことを特徴とする付記5に記載の表示制御方法。
(付記7)
前記表示範囲に表示する対象として選択されたオブジェクトデータを検出すると、オブジェクトデータと、該オブジェクトデータの識別情報とを対応づける関係情報を記憶する記憶部を参照して、検出した前記オブジェクトデータに対応する関係情報が記憶されているか否かを判定し、
検出した前記オブジェクトデータに対応する関係情報が記憶されている場合、検出した前記オブジェクトデータに、該オブジェクトデータに関係づけられた識別情報を対応づけて表示し、検出した前記オブジェクトデータに対応する関係情報が記憶されていない場合、検出した前記オブジェクトデータと、生成した前記識別情報とを対応づける関係情報を前記記憶部に記憶し、
検出した前記オブジェクトデータが前記表示範囲から消失した場合、前記表示範囲から消失した前記オブジェクトデータに対応する関係情報が前記記憶部に記憶された時刻以降に前記記憶部に関係情報が記憶された他のオブジェクトデータの数が基準を超えた際に、前記表示範囲から消失した前記オブジェクトデータに対応する関係情報を前記記憶部から消去する、
ことを特徴とする付記1に記載の表示制御方法。
(付記8)
前記表示範囲に表示する対象として選択されたオブジェクトデータを検出すると、オブジェクトデータと、該オブジェクトデータの識別情報とを関係づける関係情報を記憶する記憶部を参照して、検出した前記オブジェクトデータに対応する関係情報が記憶されているか否かを判定し、
検出した前記オブジェクトデータに対応する関係情報が記憶されている場合、検出した前記オブジェクトデータに、該オブジェクトデータに関係づけられた識別情報を対応づけて表示し、検出した前記オブジェクトデータに対応する関係情報が記憶されていない場合、検出した前記オブジェクトデータと、生成した前記識別情報とを対応づける関係情報を前記記憶部に記憶し、
検出した前記オブジェクトデータが前記表示範囲から消失した場合、前記オブジェクトデータの前記表示範囲からの消失後、前記表示範囲への出現までの時間が基準を満たした際に、前記表示範囲から消失した前記オブジェクトデータに対応する関係情報を前記記憶部から消去する、
ことを特徴とする付記1に記載の表示制御方法。
(付記9)
ディスプレイの表示範囲に含まれるオブジェクトデータの数に応じた数の識別情報を生成する生成部と、
前記表示範囲に含まれる前記オブジェクトデータの各々に、生成した識別情報の各々を対応づけて表示する表示部と、
を備えることを特徴とする情報処理装置。
(付記10)
前記表示範囲に含まれる前記オブジェクトデータのうち、選択可能なオブジェクトデータを特定し、
特定した前記オブジェクトデータの各々に、該オブジェクトデータの識別情報の各々を対応づけて表示する、
ことを特徴とする付記9に記載の情報処理装置。
(付記11)
前記表示範囲に含まれる前記オブジェクトデータの表示位置に応じて、前記オブジェクトデータの識別情報を生成する、
ことを特徴とする付記9に記載の情報処理装置。
(付記12)
前記オブジェクトデータの各々に対応づけて表示する前記識別情報には順序が割り当てられており、前記表示範囲に含まれる前記オブジェクトデータについて、前記表示範囲の左側に表示されるオブジェクトに対して、前記表示範囲の右側に表示されるオブジェクトよりも、前の順を示す識別情報を付与する、
ことを特徴とする付記9に記載の情報処理装置。
(付記13)
入力された音声情報を解析して、前記音声情報に所定の指示を示す音声が含まれていることを検出すると、第1のオブジェクトデータの選択から、選択順が該第1のオブジェクトデータの次に該当する第2のオブジェクトデータの選択に切り替える、
ことを特徴とする付記12に記載の情報処理装置。
(付記14)
前記音声は、右、又は、次、又は、ネクストに対応する音声である、
ことを特徴とする付記13に記載の情報処理装置。
(付記15)
前記表示範囲に表示する対象として選択されたオブジェクトデータを検出すると、オブジェクトデータと、該オブジェクトデータの識別情報とを対応づける関係情報を記憶する記憶部を参照して、検出した前記オブジェクトデータに対応する関係情報が記憶されているか否かを判定し、
検出した前記オブジェクトデータに対応する関係情報が記憶されている場合、検出した前記オブジェクトデータに、該オブジェクトデータに関係づけられた識別情報を対応づけて表示し、検出した前記オブジェクトデータに対応する関係情報が記憶されていない場合、検出した前記オブジェクトデータと、生成した前記識別情報とを対応づける関係情報を前記記憶部に記憶し、
検出した前記オブジェクトデータが前記表示範囲から消失した場合、前記表示範囲から消失した前記オブジェクトデータに対応する関係情報が前記記憶部に記憶された時刻以降に前記記憶部に関係情報が記憶された他のオブジェクトデータの数が基準を超えた際に、前記表示範囲から消失した前記オブジェクトデータに対応する関係情報を前記記憶部から消去する、
ことを特徴とする付記9に記載の情報処理装置。
(付記16)
前記表示範囲に表示する対象として選択されたオブジェクトデータを検出すると、オブジェクトデータと、該オブジェクトデータの識別情報とを関係づける関係情報を記憶する記憶部を参照して、検出した前記オブジェクトデータに対応する関係情報が記憶されているか否かを判定し、
検出した前記オブジェクトデータに対応する関係情報が記憶されている場合、検出した前記オブジェクトデータに、該オブジェクトデータに関係づけられた識別情報を対応づけて表示し、検出した前記オブジェクトデータに対応する関係情報が記憶されていない場合、検出した前記オブジェクトデータと、生成した前記識別情報とを対応づける関係情報を前記記憶部に記憶し、
検出した前記オブジェクトデータが前記表示範囲から消失した場合、前記オブジェクトデータの前記表示範囲からの消失後、前記表示範囲への出現までの時間が基準を満たした際に、前記表示範囲から消失した前記オブジェクトデータに対応する関係情報を前記記憶部から消去する、
ことを特徴とする付記9に記載の情報処理装置。
(付記17)
ディスプレイの表示範囲に含まれるオブジェクトデータの数に応じた数の識別情報を生成し、
前記表示範囲に含まれる前記オブジェクトデータの各々に、生成した識別情報の各々を対応づけて表示する、
処理をコンピュータに実行させることを特徴とする表示制御プログラム。
(付記18)
前記表示範囲に含まれる前記オブジェクトデータのうち、選択可能なオブジェクトデータを特定し、
特定した前記オブジェクトデータの各々に、該オブジェクトデータの識別情報の各々を対応づけて表示する、
ことを特徴とする付記17に記載の表示制御プログラム。
(付記19)
前記表示範囲に含まれる前記オブジェクトデータの表示位置に応じて、前記オブジェクトデータの識別情報を生成する、
ことを特徴とする付記17に記載の表示制御プログラム。
(付記20)
前記オブジェクトデータの各々に対応づけて表示する前記識別情報には順序が割り当てられており、前記表示範囲に含まれる前記オブジェクトデータについて、前記表示範囲の左側に表示されるオブジェクトに対して、前記表示範囲の右側に表示されるオブジェクトよりも、前の順を示す識別情報を付与する、
ことを特徴とする付記17に記載の表示制御プログラム。
(付記21)
入力された音声情報を解析して、前記音声情報に所定の指示を示す音声が含まれていることを検出すると、第1のオブジェクトデータの選択から、選択順が該第1のオブジェクトデータの次に該当する第2のオブジェクトデータの選択に切り替える、
ことを特徴とする付記20に記載の表示制御プログラム。
(付記22)
前記音声は、右、又は、次、又は、ネクストに対応する音声である、
ことを特徴とする付記21に記載の表示制御プログラム。
(付記23)
前記表示範囲に表示する対象として選択されたオブジェクトデータを検出すると、オブジェクトデータと、該オブジェクトデータの識別情報とを対応づける関係情報を記憶する記憶部を参照して、検出した前記オブジェクトデータに対応する関係情報が記憶されているか否かを判定し、
検出した前記オブジェクトデータに対応する関係情報が記憶されている場合、検出した前記オブジェクトデータに、該オブジェクトデータに関係づけられた識別情報を対応づけて表示し、検出した前記オブジェクトデータに対応する関係情報が記憶されていない場合、検出した前記オブジェクトデータと、生成した前記識別情報とを対応づける関係情報を前記記憶部に記憶し、
検出した前記オブジェクトデータが前記表示範囲から消失した場合、前記表示範囲から消失した前記オブジェクトデータに対応する関係情報が前記記憶部に記憶された時刻以降に前記記憶部に関係情報が記憶された他のオブジェクトデータの数が基準を超えた際に、前記表示範囲から消失した前記オブジェクトデータに対応する関係情報を前記記憶部から消去する、
ことを特徴とする付記17に記載の表示制御プログラム。
(付記24)
前記表示範囲に表示する対象として選択されたオブジェクトデータを検出すると、オブジェクトデータと、該オブジェクトデータの識別情報とを関係づける関係情報を記憶する記憶部を参照して、検出した前記オブジェクトデータに対応する関係情報が記憶されているか否かを判定し、
検出した前記オブジェクトデータに対応する関係情報が記憶されている場合、検出した前記オブジェクトデータに、該オブジェクトデータに関係づけられた識別情報を対応づけて表示し、検出した前記オブジェクトデータに対応する関係情報が記憶されていない場合、検出した前記オブジェクトデータと、生成した前記識別情報とを対応づける関係情報を前記記憶部に記憶し、
検出した前記オブジェクトデータが前記表示範囲から消失した場合、前記オブジェクトデータの前記表示範囲からの消失後、前記表示範囲への出現までの時間が基準を満たした際に、前記表示範囲から消失した前記オブジェクトデータに対応する関係情報を前記記憶部から消去する、
ことを特徴とする付記17に記載の表示制御プログラム。
(付記25)
ディスプレイにオブジェクトデータを表示する表示制御方法であって、
オブジェクトデータの選択を受け付ける選択モードへの遷移を指示する操作を検出すると、前記ディスプレイに表示されたオブジェクトデータの各々に、該オブジェクトデータの識別情報を対応づけて表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。
1:HMD
2:オブジェクトデータ管理テーブル
10:撮像部
11:画像認識部
12:ARマーカ認識部
13:記憶部
14:表示部
15:通信部
16:音声入力部
17:音声認識部
18:生成部
40:採番リストテーブル
50:辞書テーブル
60:位置情報テーブル

Claims (3)

  1. 端末装置の位置情報に応じた複数のオブジェクトデータのうち、前記端末装置のディスプレイへの表示の対象とするオブジェクトデータを特定し、
    特定した前記オブジェクトデータの数に応じた数の識別情報を生成し、
    特定した前記オブジェクトデータの各々に、生成した識別情報の各々を対応づけて表示する、
    処理を前記端末装置が実行することを特徴とする表示制御方法。
  2. 端末装置の位置情報に応じた複数のオブジェクトデータのうち、前記端末装置のディスプレイへの表示の対象とするオブジェクトデータを特定する認識部と、
    特定した前記オブジェクトデータの数に応じた数の識別情報を生成する生成部と、
    特定した前記オブジェクトデータの各々に、生成した識別情報の各々を対応づけて表示する表示部と、
    を備えることを特徴とする前記端末装置。
  3. 端末装置の位置情報に応じた複数のオブジェクトデータのうち、前記端末装置のディスプレイへの表示の対象とするオブジェクトデータを特定し、
    特定した前記オブジェクトデータの数に応じた数の識別情報を生成し、
    特定した前記オブジェクトデータの各々に、生成した識別情報の各々を対応づけて表示する、
    処理を前記端末装置に実行させることを特徴とする表示制御プログラム。
JP2019139589A 2019-07-30 2019-07-30 表示制御方法、情報処理装置及び表示制御プログラム Pending JP2019200811A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019139589A JP2019200811A (ja) 2019-07-30 2019-07-30 表示制御方法、情報処理装置及び表示制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019139589A JP2019200811A (ja) 2019-07-30 2019-07-30 表示制御方法、情報処理装置及び表示制御プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015104899A Division JP6609994B2 (ja) 2015-05-22 2015-05-22 表示制御方法、情報処理装置及び表示制御プログラム

Publications (1)

Publication Number Publication Date
JP2019200811A true JP2019200811A (ja) 2019-11-21

Family

ID=68613198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019139589A Pending JP2019200811A (ja) 2019-07-30 2019-07-30 表示制御方法、情報処理装置及び表示制御プログラム

Country Status (1)

Country Link
JP (1) JP2019200811A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134157A (ja) * 1997-10-24 1999-05-21 Toshiba Corp 情報端末装置並びに情報処理方法
JP2011154555A (ja) * 2010-01-27 2011-08-11 Fujitsu Toshiba Mobile Communications Ltd 電子機器
JP2015041126A (ja) * 2013-08-20 2015-03-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134157A (ja) * 1997-10-24 1999-05-21 Toshiba Corp 情報端末装置並びに情報処理方法
JP2011154555A (ja) * 2010-01-27 2011-08-11 Fujitsu Toshiba Mobile Communications Ltd 電子機器
JP2015041126A (ja) * 2013-08-20 2015-03-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法

Similar Documents

Publication Publication Date Title
JP6609994B2 (ja) 表示制御方法、情報処理装置及び表示制御プログラム
KR101587625B1 (ko) 음성제어 영상표시 장치 및 영상표시 장치의 음성제어 방법
US20160012612A1 (en) Display control method and system
JP2011040035A (ja) 表示入力装置およびそのためのコンピュータプログラム
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
JP4177335B2 (ja) 手書き文字入力装置および手書き文字入力処理方法
US20150241984A1 (en) Methods and Devices for Natural Human Interfaces and for Man Machine and Machine to Machine Activities
KR20120013377A (ko) 컴퓨팅 디바이스 상에서의 글리프 입력
JP2015148946A (ja) 情報処理装置、情報処理方法及びプログラム
US20170047065A1 (en) Voice-controllable image display device and voice control method for image display device
US11709593B2 (en) Electronic apparatus for providing a virtual keyboard and controlling method thereof
US11386612B2 (en) Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation
JP6612799B2 (ja) 電子機器、制御方法、及び制御プログラム
JP2015102875A (ja) 表示システム及び表示制御装置
JP2019200811A (ja) 表示制御方法、情報処理装置及び表示制御プログラム
CN113260426A (zh) 游戏系统、处理方法以及信息存储介质
US11978252B2 (en) Communication system, display apparatus, and display control method
JPWO2013047023A1 (ja) 表示装置、表示方法およびプログラム
JP2012208614A (ja) 携帯電子機器
JP6259225B2 (ja) 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム
JP2019101739A (ja) 情報処理装置、情報処理システムおよびプログラム
KR102294717B1 (ko) 변형 오브젝트를 제공하기 위한 증강현실 영상 제공 시스템 및 방법
KR101348763B1 (ko) 손동작에 의한 인터페이스 조작 장치 및 방법, 그리고 컴퓨터로 읽을 수 있는 기록매체
JP2017004298A (ja) 文字入力システム、文字入力方法、及び、コンピュータプログラム
JP2021086295A (ja) 方法、プログラム、及び電子装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210406