JP2019090943A - 情報処理装置およびプログラム - Google Patents
情報処理装置およびプログラム Download PDFInfo
- Publication number
- JP2019090943A JP2019090943A JP2017220120A JP2017220120A JP2019090943A JP 2019090943 A JP2019090943 A JP 2019090943A JP 2017220120 A JP2017220120 A JP 2017220120A JP 2017220120 A JP2017220120 A JP 2017220120A JP 2019090943 A JP2019090943 A JP 2019090943A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- terminal
- information processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1601—Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/18—Packaging or power distribution
- G06F1/181—Enclosures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0492—Change of orientation of the displayed image, e.g. upside-down, mirrored
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
Abstract
Description
本発明の目的は、ユーザが携行する端末装置に対応する画像を、表示装置に表示しない場合に比べ、情報の提供先となる装置や、情報の提供元をより特定しやすくすることにある。
請求項2に記載の発明は、前記情報対応画像を前記端末対応画像に動かす操作に基づいて、当該端末対応画像に対応する端末装置に、当該情報対応画像に対応した情報が提供される請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記表示装置の表示画面が上方に向くように当該表示装置は設けられ、前記情報処理装置を上方から眺めた場合において、前記表示装置の前記表示画面の中央部から前記端末装置に向かう方向と、当該中央部から前記端末対応画像に向かう方向とが揃うように、当該端末対応画像が当該表示装置に表示される請求項1又は2に記載の情報処理装置である。
請求項4に記載の発明は、前記表示装置は、表示画面を有し、前記表示制御手段は、前記端末対応画像を、前記情報対応画像よりも、前記表示画面の周縁に近い側に表示する請求項1乃至3の何れかに記載の情報処理装置である。
請求項5に記載の発明は、前記表示制御手段は、前記表示画面の中央部に、前記情報対応画像を表示する請求項4に記載の情報処理装置である。
請求項6に記載の発明は、前記情報対応画像と前記端末対応画像とを対応付ける操作がなされた場合に、予め定められた処理を行う処理手段をさらに備える請求項1乃至5の何れかに記載の情報処理装置である。
請求項7に記載の発明は、前記処理手段は、前記情報対応画像の少なくとも一部と前記端末対応画像の少なくとも一部とを重ねる操作がなされた場合に、前記予め定められた処理を行う請求項6に記載の情報処理装置である。
請求項8に記載の発明は、前記処理手段は、前記情報対応画像および前記端末対応画像の少なくとも一方を他方に向けて移動させる操作がなされた場合に、前記予め定められた処理を行う請求項6に記載の情報処理装置である。
請求項9に記載の発明は、前記情報処理装置の周囲に位置するユーザの動きであって、当該情報処理装置の周方向における動きを検知する検知手段をさらに備え、前記表示制御手段は、前記情報処理装置の周囲に位置するユーザが前記周方向へ動いた場合に、前記表示装置における表示の内容を変更する請求項1乃至8の何れかに記載の情報処理装置である。
請求項10に記載の発明は、前記表示制御手段は、ユーザが前記周方向へ動いた場合、前記表示装置の表示画面に表示されている画像を、当該表示画面の周縁に沿って移動させる請求項9に記載の情報処理装置である。
請求項11に記載の発明は、前記情報処理装置は、柱状に形成され、一方の端部が床面側に設置され、他方の端部に、上方を向く前記表示装置が設置されている請求項1乃至10の何れかに記載の情報処理装置である。
請求項12に記載の発明は、前記情報処理装置は、断面形状が円形または楕円形に形成され、前記表示装置の表示画面は、円形又は楕円形に形成されている請求項11に記載の情報処理装置である。
請求項13に記載の発明は、前記表示制御手段は、前記情報処理装置の周囲に前記端末装置が複数位置する場合、前記表示装置に、各端末装置に対応する端末対応画像を表示する請求項1乃至12の何れかに記載の情報処理装置である。
請求項14に記載の発明は、前記表示装置の表示画面が上方に向くように当該表示装置は設けられ、前記情報処理装置を上方から眺めた場合において、前記表示装置の表示画面の中央部から前記端末装置に向かう方向と、当該中央部から、当該端末装置に対応する前記端末対応画像に向かう方向とが揃うように、当該端末対応画像の各々が当該表示装置に表示される請求項13に記載の情報処理装置である。
請求項15に記載の発明は、発光体をさらに備え、前記情報処理装置の周囲に位置するユーザについての情報を、前記発光体の色を変化させることで表示するユーザ情報表示手段を更に備える請求項1乃至14の何れかに記載の情報処理装置である。
請求項16に記載の発明は、表示装置と、ユーザが携行する端末装置であって周囲に位置する端末装置を検知する検知手段と、前記検知手段により検知された端末装置に対応する画像である端末対応画像を前記表示装置に表示するとともに、当該端末装置の携行者から提供される情報に対応する画像である情報対応画像を、当該表示装置に表示する表示制御手段と、を備える情報処理装置である。
請求項17に記載の発明は、前記表示制御手段は、前記端末対応画像と前記情報対応画像とを対応付けた状態で、当該端末対応画像および当該情報対応画像を前記表示装置に表示する請求項16に記載の情報処理装置である。
請求項18に記載の発明は、前記表示制御手段は、前記端末対応画像の少なくとも一部と前記情報対応画像の少なくとも一部とが重なる状態で、当該端末対応画像および当該情報対応画像を前記表示装置に表示する請求項17に記載の情報処理装置である。
請求項19に記載の発明は、前記表示制御手段は、対応付いた前記端末対応画像および前記情報対応画像を、前記表示装置の表示画面の中央部および周縁のうちの、当該周縁に近い側に表示する請求項17に記載の情報処理装置である。
請求項20に記載の発明は、前記表示制御手段は、前記端末装置の携行者から提供される前記情報が送信された場合に、前記情報対応画像を消去する請求項16乃至19の何れかに記載の情報処理装置である。
請求項21に記載の発明は、表示装置を備えた情報処理装置に設けられたコンピュータ装置にて実行可能なプログラムであり、前記情報処理装置の周囲に位置する端末装置に対応する画像である端末対応画像を前記表示装置に表示する機能と、前記端末装置へ提供される情報に対応する画像である情報対応画像を、前記表示装置に表示する機能と、をコンピュータ装置に実現するためのプログラムである。
請求項22に記載の発明は、表示装置を備えた情報処理装置に設けられたコンピュータ装置にて実行可能なプログラムであり、前記情報処理装置の周囲に位置する端末装置に対応する画像である端末対応画像を前記表示装置に表示する機能と、前記端末装置の携行者から提供される情報に対応する画像である情報対応画像を、前記表示装置に表示する機能と、をコンピュータに実現させるためのプログラムである。
請求項2の発明によれば、情報対応画像を端末対応画像に動かす操作を行うことで、端末対応画像に対応する端末装置に、情報対応画像に対応した情報を提供できるようになる。
請求項3の発明によれば、表示画面の中央部から端末装置に向かう方向と、この中央部から端末対応画像に向かう方向とが揃わない場合に比べ、端末装置に対応する端末対応画像を把握しやすくなる。
請求項4の発明によれば、情報対応画像を表示画面の周縁側へ移動させることで、情報対応画像を、端末対応画像に近づけることができるようになる。
請求項5の発明によれば、表示画面の中央部以外の箇所に、情報対応画像が表示される場合に比べ、複数のユーザが、情報対応画像に対する操作を行う際の操作性を向上させることができる。
請求項6の発明によれば、対応付ける操作の有無に関わらず予め定められた処理が行われる場合に比べ、ユーザが意図していない処理が行われることをより確実に防止できる。
請求項7の発明によれば、情報表示画像の少なくとも一部と端末対応画像の少なくとも一部とを重ねる操作の有無に関わらず予め定められた処理が行われる場合に比べ、ユーザが意図していない処理が行われることをより確実に防止できる。
請求項8の発明によれば、情報対応画像および端末対応画像の少なくとも一方を他方に向けて移動させる操作の有無に関わらず予め定められた処理が行われる場合に比べ、ユーザが意図していない処理が行われることをより確実に防止できる。
請求項9の発明によれば、表示装置に対する操作を条件として表示の内容を変更する場合に比べ、表示の内容を変更する際のユーザの手間を低減できる。
請求項10の発明によれば、表示画面に表示されている画像を、表示画面の周縁から離れる方向へ移動させる場合に比べ、表示画面に表示されている画像に対する操作をユーザが行う際の操作性が低下することを抑制できる。
請求項11の発明によれば、表示装置が側方を向いている場合に比べ、情報処理装置の周囲からの表示装置へのアクセスを行いやすいものにできる。
請求項12の発明によれば、情報処理装置の断面形状、表示画面の形状が、円形や楕円形以外の形状である場合に比べ、情報処理装置の周囲からの表示装置へのアクセスを行いやすいものにできる。
請求項13の発明によれば、複数のユーザの各々が有する端末装置に対応する端末対応像を、表示装置に表示することができる。
請求項14の発明によれば、表示画面の中央部から端末装置に向かう方向と、この中央部から端末対応画像に向かう方向とが揃わない場合に比べ、端末装置に対応する端末対応画像を把握しやすくなる。
請求項15の発明によれば、情報処理装置の周囲に位置するユーザについての情報を文字情報で表示する場合に比べ、情報処理装置の周囲に位置するユーザについての情報を直観的に把握しやすくなる。
請求項16の発明によれば、ユーザが携行する端末装置に対応する画像を、表示装置に表示しない場合に比べ、情報の提供元をより特定しやすくなる。
請求項17の発明によれば、端末対応画像と情報対応画像とを対応付けない状態で、端末対応画像および情報対応画像を表示する場合に比べ、端末対応画像に対応している情報対応画像がより明確となる。
請求項18の発明によれば、端末対応画像と情報対応画像とを離間した状態で表示する場合に比べ、端末対応画像に対応している情報対応画像がより明確となる。
請求項19の発明によれば、対応付いた端末対応画像および情報対応画像を、表示画面の中央部に近い側に表示する場合に比べ、対応付いた端末対応画像および情報対応画像を、表示画面の中央部に向けて移動させる操作をより行いやすいものにできる。
請求項20の発明によれば、情報対応画像を消去しない場合に比べ、端末装置の携行者から提供される情報が送信されたことがより明確となる。
請求項21の発明によれば、ユーザが携行する端末装置に対応する画像を、表示装置に表示しない場合に比べ、情報の提供先となる装置をより特定しやすくなる。
請求項22の発明によれば、ユーザが携行する端末装置に対応する画像を、表示装置に表示しない場合に比べ、情報の提供元をより特定しやすくなる。
図1(A)、(B)は、本実施形態に係る情報処理装置100を説明する図である。図1(A)は、情報処理装置100の斜視図であり、図1(B)は、情報処理装置100の上面図である。
図1(B)に示すように、本実施形態の情報処理装置100は、柱状に形成され、上下方向に沿うように設けられている。具体的には、一方の端部100Aが、床面側に設置され、他方の端部100Bに、上方を向く表示装置200が設置されている。
柱状には、筒状および中実状の両者が含まれる。また、柱状には、内部に空洞がある形状も含まれる。また、柱状には、円盤形状など、径方向における寸法よりも軸方向における寸法の方が小さい形状も含まれる。
また、この情報処理装置100は、インターネットなどの通信回線を通じて外部サーバ(不図示)に接続され、この外部サーバとの間で情報の送受信を行う。この情報処理装置100は、エッジサーバとしての役割も有する。
なお、情報処理装置100の断面形状は、円形に限らず、楕円形としてもよい。また、その他に、四角形、五角形など、多角形状としてもよい。さらに、これらの形状に該当しない異形形状としてもよい。
また、その他に、例えば、上部に表示装置200を設け、表示装置200の下部に、下方に向かって延びる脚部を備えた構成としてもよい。
また、表示装置200の表示画面210も、円形に限らず、楕円形や、四角形などの多角形状としてもよい。
外装部材120は、四角形状で形成され、また、対角線が上下方向および水平方向に沿うように設置されている。また、互いに隣接する外装部材120の間には、隙間Gが設けられている。
図2に示すように、情報処理装置100は、CPU(Central Processing Unit)201、RAM(Random Access Memory)202、ROM(Read Only Memory)203、磁気記憶装置204を備える。さらに、情報処理装置100は、外部との通信を行うための通信装置(通信I/F)205を備える。
CPU201により、ROM203や磁気記憶装置204に格納されたプログラムが実行されることで、後述する各機能部が実現される。
表示装置200は、例えば、タッチパネル方式のディスプレイにより構成され、ユーザへの情報の表示を行うとともに、ユーザからの操作を受け付ける。
発光体206は、LED(light emitting diode)などの光源と、この光源の点灯制御を行う制御基板とにより構成される。
撮像装置の一例としてのカメラ208は、CCDイメージセンサなどを含んで構成され、情報処理装置100の周囲の状況を撮影する。
投影装置209は、いわゆるプロジェクターであり、情報処理装置100の周囲に位置する壁や床面に対して、画像の投影を行う。
本実施形態の情報処理装置100には、図3に示すように、端末検知部251、表示制御部252、処理部253、動き検知部254、ユーザ情報表示部255が設けられている。
表示制御手段の一例としての表示制御部252は、表示装置200の表示制御を行う。
処理手段の一例としての処理部253は、表示装置200に対するユーザ操作があった場合に、このユーザ操作に予め対応付けられている処理を実行する。
ユーザ情報表示手段の一例としてのユーザ情報表示部255は、発光体206の色を変化させることで、情報処理装置100の周囲に位置するユーザについての情報を表示する。
上記のとおり(図1(B)に示すように)、本実施形態では、互いに隣り合う外装部材120の間に、隙間Gが設けられている。そして、本実施形態では、この隙間Gに、上記にて説明した、発光体206、人感センサ207、カメラ208、投影装置209が設けられている。
発光体206、人感センサ207、カメラ208、投影装置209は、1箇所だけではなく、情報処理装置100の周方向における位置が互いに異なる複数箇所に設置されている。
さらに、本実施形態では、カメラ208により得られた情報をもとに、処理部253によって、このユーザの顔認証が行われ、このユーザが特定される。そして、本実施形態では、図1(A)に示すように、表示装置200に、このユーザに対応した表示が行われる。なお、表示装置200における表示に加え、又は、表示装置200における表示に替えて、投影装置209を用いて壁や床面への表示を行ってもよい。
具体的には、この表示画面210では、ユーザによる選択が行われる複数の選択用画像(選択用ボタン)271が表示される。ユーザが、この選択用画像271の何れか押圧して選択すると、処理部253が、メール送信や、情報表示など、選択用画像271に対応付けられた処理を実行する。なお、本実施形態では、ユーザの操作を、タッチパネルである表示画面210にて受け付けたが、その他に、例えば、床の振動を検知するセンサを設け、ユーザが足で床をタップ等する動作を検出して、ユーザの操作を検出するようにしてもよい。
例えば、ユーザが携行する端末装置(後述)から情報を得て、ユーザの認証を行ってもよい。また、例えば、ユーザが有するIDカードの情報をカードリーダで読み取って、ユーザの認証を行ってもよい。
本実施形態では、情報処理装置100の周囲にいるユーザが、情報処理装置100の周方向へ移動すると、移動するこのユーザの動きが、動き検知部254(図3参照)により検知される。
より具体的には、動き検知部254は、複数設けられたカメラ208から出力された映像を解析して、ユーザの動き(情報処理装置100の周方向へ移動する動き)を検知する。
具体的には、表示制御部252は、ユーザが周方向へ動いた場合、表示装置200に表示されている画像(選択用画像271)を、表示画面210の周縁211に沿って移動させる。
さらに、本実施形態では、選択用画像271が1つ分移動すると、移動方向における最下流に位置する1つの選択用画像271が消え、移動方向における最上流に位置する箇所に、新たな選択用画像271が表示される。
なお、上記では、ユーザが移動する方向と同方向に、選択用画像271を移動させたが、ユーザが移動する方向とは逆方向に、選択用画像271を移動させてもよい。
本実施形態では、複数のユーザの特定を行えるようになっており、情報処理装置100の周囲に複数のユーザがいる場合には、この複数のユーザに対応した表示画面210となる。
具体的には、本実施形態では、情報処理装置100の周囲に位置するユーザが1人である場合には、図5(A)に示す表示となるが、情報処理装置100の周囲に位置するユーザが、例えば2人となると、図5(B)に示す表示となる。
さらに、ユーザAに対応した選択用画像271と、ユーザBに対応した選択用画像271との間に、両者の間を横切る仕切り線213が表示される。
これにより、一のユーザが、他のユーザのために表示された選択用画像271を選択することが起きにくくなる。
この場合も、上記と同様、ユーザの各々に対応して表示される選択用画像271は、この選択用画像271に対応するユーザが立っている側に寄せられて表示される。さらに、互いに隣り合うユーザの各々に対応して表示された選択用画像271の間に、上記と同様、仕切り線213が表示されている。
言い換えると、この例では、表示画面210の中央部に、複数のユーザにより共有される共有領域が設けられている。ここで、この共有領域は、選択用画像271が表示されない領域となっている。
そして、本実施形態では、他のユーザが、この共有領域から、自身の領域に、選択用画像271を移動させることで、この他のユーザが、この選択用画像271に対応した情報を得られるようになる。
本実施形態では、上記のとおり、外装部材120と外装部材120との間に、発光体206が設けられている。さらに、この発光体206は、複数設けられるとともに、情報処理装置100の周方向における位置が互いに異なるように配置されている。
具体的には、ユーザ情報表示部255(図3参照)が、発光体206の各々の制御を行い、情報処理装置100の周囲に位置するユーザについての情報を表示する。
そして、ユーザ情報表示部255は、この分析の結果をもとに、ユーザの感情を把握する。より具体的には、カメラ208から得られた表情の特徴量を算出し、この特徴量に基づき、ユーザの感情を把握する。
これにより、本実施形態では、情報処理装置100の外周部を参照することで、情報処理装置100の周囲に位置するユーザの状態の把握を行える。
なお、本実施形態では、ユーザについての情報として、ユーザの感情についての情報を表示する場合を説明したが、これは一例であり、その他に、例えば、ユーザの体温などを検出し、ユーザの健康状態についての情報を表示するようにしてもよい。
言い換えると、情報処理装置100を上方から眺めた場合において、表示画面210の中央部Cからユーザに向かう方向(例えば、符号6Aで示す方向)と、この中央部Cから、このユーザの感情を表す発光体206に向かう方向(例えば、符号6Bで示す方向)とが一致するように、発光体206を発行させる。言い換えると、情報処理装置100の軸心と、ユーザとを結ぶ線上に位置する発光体206を発行させる。
ここで、表示画面210における、各発光体206の発光状態の表示は、発光体206に対応する画像を、この発光体206に対応したユーザが位置する側に寄せて表示する。
具体的には、例えば、情報処理装置100から遠い場所に位置するユーザに対応する画像(発光体206を表す画像)ほど、表示画面210の周縁211に近い箇所に表示し、情報処理装置100に近い場所に位置するユーザに対応する画像(発光体206を表す画像)は、表示画面210の中央部Cに近い側に表示する。
ここで、端末装置300は、コンピュータ装置により構成される。具体的には、端末装置300は、例えば、スマートフォン、タブレット、PC(Personal Computer)などにより構成される。端末装置300の各々は、無線通信方式を用いて、情報処理装置100との通信を行う。無線通信方式としては、Wi−Fi(登録商標)(Wireless Fidelity)、Bluetooth(登録商標)、ZigBee(登録商標)、UWB(Ultra Wideband)等の既存の方式を用いてよい。
この例では、3人のユーザ(不図示)が、情報処理装置100の周囲に位置し、各ユーザが、端末装置300を携行している場合を例示している。この場合、3つの端末対応画像310が表示される。
さらに、この例では、端末装置300へ情報が提供される場合を例示しており、表示制御部252は、表示装置200に、端末装置300へ提供される情報に対応する画像である情報対応画像320を表示する。
ここで、「表示画面210の中央部C」とは、表示画面210が円形の場合、表示画面210の径方向における中心部を指し、表示画面210が楕円形の場合、長軸と短軸とが交わる箇所を指す。また、表示画面210が四角形の場合、対角線同士が交わる箇所をさす。言い換えると、表示画面210の中央部Cとは、表示画面210の重心位置を指す。
また、「中央部Cに情報対応画像320を表示する」とは、情報対応画像320の外周縁321よりも内側にこの中央部Cが位置するように、情報対応画像320を表示することをいう。言い換えると、情報対応画像320の少なくとも一部が、中央部Cに位置するように、情報対応画像320を表示することをいう。
言い換えると、表示画面210の中央部C側ではなく、ユーザが立っている側に、端末対応画像310を表示する。付言すると、本実施形態では、端末対応画像310は、表示画面210の中央部Cには表示しない。
より具体的には、図7は、情報処理装置100および端末装置300を上方から眺めた状態を示しており、この状態において、表示画面210の中央部Cから各端末装置300に向かう方向と、表示画面210の中央部Cから端末対応画像310に向かう方向とが揃うように、端末対応画像310が表示される。
ここで、本実施形態では、端末装置300の位置(情報処理装置100の周方向における位置)は、この端末装置300を携行しているユーザの位置に基づき把握する。
具体的には、本実施形態では、カメラ208により得られた情報をもとに、処理部253によって、このユーザの顔認証が行われ、このユーザが特定され、さらに、このユーザの位置が把握される。
そして、情報処理装置100は、位置を把握したこのユーザがいる位置に、このユーザに対して予め対応付けて登録されている端末装置300が位置すると判断する。付言すると、本実施形態では、ユーザについての情報と端末装置300についての情報とが予め対応付けられた状態で情報処理装置100や外部サーバ等に登録されており、本実施形態では、ユーザの位置を把握し、把握したこのユーザの位置に、端末装置300が位置すると判断する。
ここで、上記「揃う」や、上記「一致」とは、表示画面210の中央部Cから各端末装置300に向かう方向と、中央部Cから端末対応画像310に向かう方向とのなす角度が、0°であるものに限定されず、20°未満の角度を有するものを意味する。
本実施形態の表示装置200は、上記のとおり、タッチパネル方式の表示装置200となっており、表示画面210に指を押し当てることで、情報対応画像320(図8(A)参照)の選択を行える。
そして、本実施形態では、情報対応画像320が端末対応画像310まで移動し、情報対応画像320の少なくとも一部と端末対応画像310の少なくとも一部とが重なるようになると、表示画面210が、図8(B)に示す表示画面210に切り替わる。
言い換えると、本実施形態では、ユーザによって、情報対応画像320と端末対応画像310とを対応付ける操作が行われると、予め定められた処理の一例である切り替え処理が行われて、表示画面210が、図8(B)に示す表示画面210に切り替わる。
これにより、本実施形態では、情報処理装置100から端末装置300へ情報が送信されることが、より明確にユーザに伝わるようになる。
その他に、例えば、情報対応画像320および端末対応画像310の少なくとも一方を他方に向けて移動させる操作も、「対応付ける操作」と言える。言い換えると、情報対応画像320と端末対応画像310との離間距離を小さくする操作も、「対応付ける操作」と言える。
また、例えば、情報対応画像320および端末対応画像310の両者を囲むように指を移動させて、両者を囲む線を表示画面210上に表示する操作も、「対応付ける操作」といえる。
具体的には、端末対応画像310に情報対応画像320が重ねられると、Bluetoothなどの通信方式が用いられて、情報処理装置100から端末装置300へ予め定められた信号が送信される。
そして、受信してもよいとの返答があった場合、この返答結果が、情報処理装置100に送信される。そして、返答結果を受信した情報処理装置100は、情報対応画像320に対応した情報を、Wi−Fiなどの通信方式を用いて、端末装置300に送信する。
このように、本実施形態では、情報対応画像320を端末対応画像310に動かす操作に基づいて、端末対応画像310に対応する端末装置300に、情報対応画像320に対応した情報が提供される。
この場合は、端末対応画像310に情報対応画像320が重ねられる操作があると、上記問い合わせをせずに、情報処理装置100から端末装置300への情報送信が行われる。
具体的には、端末対応画像310に重なった状態で表示されていた情報対応画像320が、表示画面210の中央部Cに戻るようになる。言い換えると、情報対応画像320と端末対応画像310とが対応付けられていない状態に戻る。
これは一例であり、情報対応画像320を端末対応画像310に向けて移動させる場合、情報対応画像320を複製したものが、端末対応画像310に向けて移動するようにしてもよい。即ち、表示画面210の中央部Cに、情報対応画像320が依然として残る表示形態としてもよい。
この場合、一のユーザが、情報対応画像320を移動させている最中に、他のユーザも、自身の端末対応画像310に向けての情報対応画像320の移動を行える。
また、端末対応画像310および情報対応画像320の両者を互いに接近させることで、情報送信が行われるようにしてもよい。
また、その他に、例えば、情報対応画像320および端末対応画像310の少なくとも一方に対するフリック操作(一方を他方に向けて移動させる操作)が行われたら、情報の送信が行われるようにしてもよい。
また、その他に、例えば、表示画面210が四角形である場合には、表示画面210の上側に、情報対応画像320を表示し、下側に位置する端末対応画像310に向けてこの情報対応画像320を移動させる構成としてもよい。
端末装置300から情報処理装置100への情報の送信にあたっては、まず、ユーザが自身の端末装置300を操作して、情報送信のためのアプリケーションを起動する。これにより、図10(A)に示すように、端末装置300の表示画面300Aには、複数の、画像データや文書データなどのデータ(ファイル)350が表示される。
これにより、Wi−Fiなどの通信方式が用いられて、端末装置300から情報処理装置100への情報送信が行われる。
ここで、図10(B)に示す表示画面210では、端末対応画像310と情報対応画像320とが対応付いた状態で、端末対応画像310および情報対応画像320が表示される。
より具体的には、この例でも、端末対応画像310は、人(人の顔)を模した画像となっており、図10(B)に示す表示画面210では、端末対応画像310により表されている人の上に、情報対応画像320が載るようになる。
また、上記の「端末対応画像310と情報対応画像320とが対応付いた状態で表示」とは、情報対応画像320と端末対応画像310との間に関連性があることが分かるように表示することをいい、情報対応画像320と端末対応画像310とを重ねて表示するものに限られない。
また、例えば、情報対応画像320および端末対応画像310の両者を結ぶ線分が表示されている状態や、情報対応画像320および端末対応画像310が、同色で表示されている場合も、「対応付いた状態で表示」と言える。
また、例えば、情報対応画像320と端末対応画像310とが横並びや縦並びで配置されている場合も、「対応付いた状態で表示」と言える。さらに、例えば、情報対応画像320および端末対応画像310の両者を囲む線(枠)が表示されている場合も、「対応付いた状態で表示」と言える。
その後、本実施形態では、表示制御部252が、情報対応画像320(端末対応画像310の上に重なって表示されていた情報対応画像320)を消去するとともに、端末対応画像310を、当初の位置に戻す。即ち、表示画面210の周縁211に近い側へ移動させる。これにより、表示装置200の表示画面210は、図10(A)にて示した状態に戻る。
また、重なり画像380の移動先を示す画像としては、例えば、表示画面210の中央部Cに向かう矢印が、一例として挙げられる。
さらに、重なり画像380の移動先を示す画像としては、「表示画面210の中央部Cまで移動してください」などの、文字画像も一例として挙げられる。
その他に、例えば、表示画面210が四角形である場合には、表示画面210の左側に、重なり画像380を表示し、右側に向けて重なり画像380を移動させる構成としてもよい。また、その他に、例えば、表示画面210が四角形である場合には、表示画面210の下側に、重なり画像380を表示し、上側に向けて重なり画像380を移動させる構成としてもよい。
上記では、端末対応画像310、情報対応画像320を表示するとともに、これらの画像の一方又は両方を移動させることで、情報の送信処理等が行われる場合を説明したが、端末対応画像310および情報対応画像320の移動が伴わない場合でも、送信処理等が行われるようしてもよい。
例えば、表示画面210上に、送信ボタンなど、送信処理等を実行するための操作受け付け部を表示し、この操作受け付け部に対するユーザからの操作があった場合に、送信処理等などの予め定められた処理が行われるようにしてもよい。
Claims (22)
- 表示装置と、
ユーザが携行する端末装置であって周囲に位置する端末装置を検知する検知手段と、
前記検知手段により検知された端末装置に対応する画像である端末対応画像を前記表示装置に表示するとともに、当該端末装置へ提供される情報に対応する画像である情報対応画像を、当該表示装置に表示する表示制御手段と、
を備える情報処理装置。 - 前記情報対応画像を前記端末対応画像に動かす操作に基づいて、当該端末対応画像に対応する端末装置に、当該情報対応画像に対応した情報が提供される請求項1に記載の情報処理装置。
- 前記表示装置の表示画面が上方に向くように当該表示装置は設けられ、
前記情報処理装置を上方から眺めた場合において、
前記表示装置の前記表示画面の中央部から前記端末装置に向かう方向と、当該中央部から前記端末対応画像に向かう方向とが揃うように、当該端末対応画像が当該表示装置に表示される請求項1又は2に記載の情報処理装置。 - 前記表示装置は、表示画面を有し、
前記表示制御手段は、前記端末対応画像を、前記情報対応画像よりも、前記表示画面の周縁に近い側に表示する請求項1乃至3の何れかに記載の情報処理装置。 - 前記表示制御手段は、前記表示画面の中央部に、前記情報対応画像を表示する請求項4に記載の情報処理装置。
- 前記情報対応画像と前記端末対応画像とを対応付ける操作がなされた場合に、予め定められた処理を行う処理手段をさらに備える請求項1乃至5の何れかに記載の情報処理装置。
- 前記処理手段は、前記情報対応画像の少なくとも一部と前記端末対応画像の少なくとも一部とを重ねる操作がなされた場合に、前記予め定められた処理を行う請求項6に記載の情報処理装置。
- 前記処理手段は、前記情報対応画像および前記端末対応画像の少なくとも一方を他方に向けて移動させる操作がなされた場合に、前記予め定められた処理を行う請求項6に記載の情報処理装置。
- 前記情報処理装置の周囲に位置するユーザの動きであって、当該情報処理装置の周方向における動きを検知する検知手段をさらに備え、
前記表示制御手段は、前記情報処理装置の周囲に位置するユーザが前記周方向へ動いた場合に、前記表示装置における表示の内容を変更する請求項1乃至8の何れかに記載の情報処理装置。 - 前記表示制御手段は、ユーザが前記周方向へ動いた場合、前記表示装置の表示画面に表示されている画像を、当該表示画面の周縁に沿って移動させる請求項9に記載の情報処理装置。
- 前記情報処理装置は、柱状に形成され、一方の端部が床面側に設置され、他方の端部に、上方を向く前記表示装置が設置されている請求項1乃至10の何れかに記載の情報処理装置。
- 前記情報処理装置は、断面形状が円形または楕円形に形成され、前記表示装置の表示画面は、円形又は楕円形に形成されている請求項11に記載の情報処理装置。
- 前記表示制御手段は、前記情報処理装置の周囲に前記端末装置が複数位置する場合、前記表示装置に、各端末装置に対応する端末対応画像を表示する請求項1乃至12の何れかに記載の情報処理装置。
- 前記表示装置の表示画面が上方に向くように当該表示装置は設けられ、
前記情報処理装置を上方から眺めた場合において、
前記表示装置の表示画面の中央部から前記端末装置に向かう方向と、当該中央部から、当該端末装置に対応する前記端末対応画像に向かう方向とが揃うように、当該端末対応画像の各々が当該表示装置に表示される請求項13に記載の情報処理装置。 - 発光体をさらに備え、
前記情報処理装置の周囲に位置するユーザについての情報を、前記発光体の色を変化させることで表示するユーザ情報表示手段を更に備える請求項1乃至14の何れかに記載の情報処理装置。 - 表示装置と、
ユーザが携行する端末装置であって周囲に位置する端末装置を検知する検知手段と、
前記検知手段により検知された端末装置に対応する画像である端末対応画像を前記表示装置に表示するとともに、当該端末装置の携行者から提供される情報に対応する画像である情報対応画像を、当該表示装置に表示する表示制御手段と、
を備える情報処理装置。 - 前記表示制御手段は、前記端末対応画像と前記情報対応画像とを対応付けた状態で、当該端末対応画像および当該情報対応画像を前記表示装置に表示する請求項16に記載の情報処理装置。
- 前記表示制御手段は、前記端末対応画像の少なくとも一部と前記情報対応画像の少なくとも一部とが重なる状態で、当該端末対応画像および当該情報対応画像を前記表示装置に表示する請求項17に記載の情報処理装置。
- 前記表示制御手段は、対応付いた前記端末対応画像および前記情報対応画像を、前記表示装置の表示画面の中央部および周縁のうちの、当該周縁に近い側に表示する請求項17に記載の情報処理装置。
- 前記表示制御手段は、前記端末装置の携行者から提供される前記情報が送信された場合に、前記情報対応画像を消去する請求項16乃至19の何れかに記載の情報処理装置。
- 表示装置を備えた情報処理装置に設けられたコンピュータ装置にて実行可能なプログラムであり、
前記情報処理装置の周囲に位置する端末装置に対応する画像である端末対応画像を前記表示装置に表示する機能と、
前記端末装置へ提供される情報に対応する画像である情報対応画像を、前記表示装置に表示する機能と、
をコンピュータ装置に実現するためのプログラム。 - 表示装置を備えた情報処理装置に設けられたコンピュータ装置にて実行可能なプログラムであり、
前記情報処理装置の周囲に位置する端末装置に対応する画像である端末対応画像を前記表示装置に表示する機能と、
前記端末装置の携行者から提供される情報に対応する画像である情報対応画像を、前記表示装置に表示する機能と、
をコンピュータに実現させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017220120A JP7013808B2 (ja) | 2017-11-15 | 2017-11-15 | 情報処理装置およびプログラム |
US16/177,539 US11442504B2 (en) | 2017-11-15 | 2018-11-01 | Information processing apparatus and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017220120A JP7013808B2 (ja) | 2017-11-15 | 2017-11-15 | 情報処理装置およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019090943A true JP2019090943A (ja) | 2019-06-13 |
JP7013808B2 JP7013808B2 (ja) | 2022-02-01 |
Family
ID=66432768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017220120A Active JP7013808B2 (ja) | 2017-11-15 | 2017-11-15 | 情報処理装置およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11442504B2 (ja) |
JP (1) | JP7013808B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7013808B2 (ja) * | 2017-11-15 | 2022-02-01 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置およびプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011248767A (ja) * | 2010-05-28 | 2011-12-08 | Sony Corp | 情報処理装置、情報処理システム及びプログラム |
JP2013003742A (ja) * | 2011-06-14 | 2013-01-07 | Sharp Corp | データ送信操作機器、および、データ送信制御方法 |
US20130162566A1 (en) * | 2011-12-21 | 2013-06-27 | Sony Mobile Communications Japan, Inc. | Terminal device |
JP2013145451A (ja) * | 2012-01-13 | 2013-07-25 | Sony Corp | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
JP2013205945A (ja) * | 2012-03-27 | 2013-10-07 | Sharp Corp | データ送信操作機器、および、データ送信制御方法 |
JP2016051468A (ja) * | 2014-08-29 | 2016-04-11 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、その制御方法、及びプログラム |
JP6101393B1 (ja) * | 2016-08-28 | 2017-03-22 | 功 藤野 | 情報処理装置、制御方法およびプログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5520258A (en) | 1978-07-28 | 1980-02-13 | Matsushita Electric Ind Co Ltd | Liquid phase epitaxial growing method and device |
KR101626621B1 (ko) * | 2009-12-30 | 2016-06-01 | 엘지전자 주식회사 | 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기 |
US20140071159A1 (en) * | 2012-09-13 | 2014-03-13 | Ati Technologies, Ulc | Method and Apparatus For Providing a User Interface For a File System |
JP6271960B2 (ja) * | 2012-11-26 | 2018-01-31 | キヤノン株式会社 | 情報処理システム |
JP5854237B2 (ja) * | 2013-04-30 | 2016-02-09 | コニカミノルタ株式会社 | 画像処理システム、画像処理装置、携帯情報端末およびプログラム |
JP2015070426A (ja) * | 2013-09-27 | 2015-04-13 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP2015090593A (ja) * | 2013-11-06 | 2015-05-11 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理システム |
KR102206953B1 (ko) * | 2013-12-09 | 2021-01-25 | 엘지전자 주식회사 | 음향 출력 장치 |
CN105980962B (zh) * | 2014-02-17 | 2019-07-23 | 索尼公司 | 信息处理设备和信息处理方法 |
JP2015172653A (ja) * | 2014-03-12 | 2015-10-01 | ソニー株式会社 | 表示装置および表示方法 |
US9667784B2 (en) * | 2014-04-30 | 2017-05-30 | Xiaomi Inc. | Methods and devices for providing information in voice service |
US10228766B2 (en) * | 2014-09-12 | 2019-03-12 | Microsoft Technology Licensing, Llc | Enhanced Display Rotation |
JP6412778B2 (ja) * | 2014-11-19 | 2018-10-24 | 東芝映像ソリューション株式会社 | 映像装置、方法、およびプログラム |
US10185363B2 (en) * | 2014-11-28 | 2019-01-22 | Semiconductor Energy Laboratory Co., Ltd. | Electronic device |
JP7013808B2 (ja) * | 2017-11-15 | 2022-02-01 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置およびプログラム |
US10855974B2 (en) * | 2018-01-17 | 2020-12-01 | Massachusetts Institute Of Technology | Methods and apparatus for radial automultiscopic display |
-
2017
- 2017-11-15 JP JP2017220120A patent/JP7013808B2/ja active Active
-
2018
- 2018-11-01 US US16/177,539 patent/US11442504B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011248767A (ja) * | 2010-05-28 | 2011-12-08 | Sony Corp | 情報処理装置、情報処理システム及びプログラム |
JP2013003742A (ja) * | 2011-06-14 | 2013-01-07 | Sharp Corp | データ送信操作機器、および、データ送信制御方法 |
US20130162566A1 (en) * | 2011-12-21 | 2013-06-27 | Sony Mobile Communications Japan, Inc. | Terminal device |
JP2013145451A (ja) * | 2012-01-13 | 2013-07-25 | Sony Corp | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
JP2013205945A (ja) * | 2012-03-27 | 2013-10-07 | Sharp Corp | データ送信操作機器、および、データ送信制御方法 |
JP2016051468A (ja) * | 2014-08-29 | 2016-04-11 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、その制御方法、及びプログラム |
JP6101393B1 (ja) * | 2016-08-28 | 2017-03-22 | 功 藤野 | 情報処理装置、制御方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11442504B2 (en) | 2022-09-13 |
JP7013808B2 (ja) | 2022-02-01 |
US20190146555A1 (en) | 2019-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10762876B2 (en) | Information processing apparatus and control method | |
US9804733B2 (en) | Dynamic cursor focus in a multi-display information handling system environment | |
US9690400B2 (en) | Information handling system interactive totems | |
US11106314B2 (en) | Continuous calibration of an information handling system projected user interface | |
JP6092485B2 (ja) | 情報処理装置 | |
US9753591B2 (en) | Capacitive mat information handling system display and totem interactions | |
US9983717B2 (en) | Disambiguation of false touch inputs at an information handling system projected user interface | |
US9720446B2 (en) | Information handling system projected work space calibration | |
US11243640B2 (en) | Information handling system modular capacitive mat with extension coupling devices | |
US10139854B2 (en) | Dynamic display resolution management for an immersed information handling system environment | |
US20170038912A1 (en) | Information providing device | |
JP2012160175A (ja) | インタラクティブプレゼンシステム | |
US11373650B2 (en) | Information processing device and information processing method | |
US9791979B2 (en) | Managing inputs at an information handling system by adaptive infrared illumination and detection | |
JP6422118B2 (ja) | 表示システム、情報処理装置、及び表示方法 | |
US9921644B2 (en) | Information handling system non-linear user interface | |
US9804718B2 (en) | Context based peripheral management for interacting with an information handling system | |
JP6253128B2 (ja) | 表示システム、入力装置、表示装置、及び表示方法 | |
US9720550B2 (en) | Adaptable input active zones at an information handling system projected user interface | |
KR102333931B1 (ko) | 영상 투사 장치 및 그의 동작 방법 | |
JP2019090943A (ja) | 情報処理装置およびプログラム | |
JP2009015720A (ja) | 認識装置および認識方法 | |
US20180024696A1 (en) | Image projection apparatus and operation method thereof | |
WO2015182059A1 (ja) | 情報処理システム、制御方法およびプログラム記憶媒体 | |
JP2013134549A (ja) | データ入力装置およびデータ入力方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200831 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210601 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220103 |