WO2010021240A1 - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
WO2010021240A1
WO2010021240A1 PCT/JP2009/063850 JP2009063850W WO2010021240A1 WO 2010021240 A1 WO2010021240 A1 WO 2010021240A1 JP 2009063850 W JP2009063850 W JP 2009063850W WO 2010021240 A1 WO2010021240 A1 WO 2010021240A1
Authority
WO
WIPO (PCT)
Prior art keywords
image display
display device
displayed
detection unit
participants
Prior art date
Application number
PCT/JP2009/063850
Other languages
English (en)
French (fr)
Inventor
祐介 池田
雅一 長野
量 瀧村
悠 入谷
Original Assignee
コニカミノルタホールディングス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタホールディングス株式会社 filed Critical コニカミノルタホールディングス株式会社
Priority to JP2010525653A priority Critical patent/JPWO2010021240A1/ja
Priority to EP09808176.3A priority patent/EP2320311A4/en
Priority to US12/933,918 priority patent/US20110025712A1/en
Publication of WO2010021240A1 publication Critical patent/WO2010021240A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1415Digital output to display device ; Cooperation and interconnection of the display device with other functional units with means for detecting differences between the image stored in the host and the images displayed on the displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports

Definitions

  • the present invention relates to an image display device (electronic board or the like) used when a meeting or the like is performed by a plurality of people.
  • an image display device (electronic board or the like) used when a meeting or the like is performed by a plurality of people by displaying photos or materials for the meeting.
  • This image display device is, for example, a table type, and a plurality of people surround the table type image display device and discuss while looking at materials displayed on the image display device.
  • Patent Document 1 or Patent Document 2 As an image display device, there is a technique described in Patent Document 1 or Patent Document 2, and the technique described in Patent Document 1 or Patent Document 2 surrounds a display device (image display device) in which a plurality of people are table-type. We are discussing by looking at the materials displayed in the common area. If the discussion can be made based on the materials displayed on the display device as in the technique described in Patent Document 1 or Patent Document 2, it is not necessary to output the materials on paper and prepare them individually for the participants. Good.
  • the visibility of the material depends on the location of the participant with respect to the image display device. Come different. For example, a person near the position where the material is displayed is easy to see the material, and a person far away is difficult to see the material. In particular, when the image display device is large and the participants are separated from each other and the displayed material is small, the visibility of the material varies significantly depending on the location of the participant. In this case, if the display position of the material is moved so as to be close to a distant person, it is difficult for a person who has been displayed so far to be easy to see.
  • an object of the present invention is to provide an image display device that makes it easy for a plurality of persons to view the document when a plurality of persons discuss based on one displayed document (object).
  • an image display device provides: A display for displaying objects; A detection unit that automatically detects a conflict by a plurality of users for the object displayed on the display unit; If the detection unit detects the conflict, a processing unit for enlarging the conflicting object; It is characterized by having.
  • an image display device includes: A display for displaying objects; A detection unit that automatically detects a conflict by a plurality of users for the object displayed on the display unit; When the conflict is detected by the detection unit, the conflicting object is moved to the shared display area in the display unit, and a processing unit that adjusts the display direction of the object moved to the shared display region; It is characterized by having.
  • the image display device surrounds the image display device and makes it easy for a plurality of people to view the material even when a plurality of people discuss based on one material (object) displayed on the image display device. I can do it.
  • FIG. 1 is a schematic view of an image display device according to the present invention.
  • 1 is a block diagram of an image display device according to the present invention. It is a flowchart figure which shows the operation
  • FIG. 1 is a schematic view of an image display apparatus according to the present invention.
  • the image display apparatus A shown in FIG. 1 is a table type, and a display (display unit) 105 extends in the horizontal direction.
  • a plurality of participants P1 to P4 can sit down so as to surround the image display apparatus A, and can see the objects D1 and D2, which are materials displayed on the display 105, to make a meeting.
  • the object D1 displayed on the display 105 is a photographic image, and the object D2 is a document image.
  • Various other objects can be displayed on the display 105, and object information is stored in an HDD (Hard Disc Drive) 104 of the image display apparatus A described later.
  • a storage medium storing object information can be connected to the image display apparatus A and displayed on the display 105.
  • the display 105 has a touch panel format, and the display positions of the objects D1 and D2 can be changed by touching and moving the objects D1 and D2 displayed on the display 105 by the participants P1 to P4.
  • characters or the like can be displayed on the display 105 by the participants P1 to P4 drawing on the display 105.
  • a camera 106 and a microphone 107 are individually installed at the place where each participant P1 to P4 is sitting. Each participant P1 to P4 is photographed by the camera 106, and sounds emitted from each participant P1 to P4 are collected by the microphone 107.
  • the image display apparatus A shown in FIG. 1 is used alone when a meeting is held by four participants P1 to P4. However, the image display apparatus A is connected to another image display apparatus at a remote location via a network. It is also possible to connect to. In this case, the same object is displayed on each other's display, and the image captured by the camera 106 or the sound collected by the microphone 107 is transmitted to another image display device, so that persons in different places can meet each other. I can do it.
  • FIG. 2 is a block diagram of an image display apparatus according to the present invention, showing a typical configuration.
  • the image display apparatus A is connected to a PC through the communication unit 108 and can store data transmitted from the PC in the HDD 104 or display it as an object on the display 105.
  • the image display apparatus A includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, and the like.
  • the CPU 101 controls the operation of the entire image display apparatus, and is connected to the ROM 102, the RAM 103, and the like.
  • the CPU 101 reads out various programs stored in the ROM 102, develops them in the RAM 103, and controls the operation of each unit.
  • the CPU 101 executes various processes according to the program expanded in the RAM 103 and stores the processing results in the RAM 103. Then, the processing result stored in the RAM 103 is stored in a predetermined storage destination.
  • the CPU 101 constitutes a detection unit and a processing unit by cooperating with the ROM 102 and the RAM 103.
  • the ROM 102 stores programs, data, and the like in advance, and is composed of a semiconductor memory.
  • the RAM 103 forms a work area for temporarily storing data processed by various programs executed by the CPU 101.
  • the HDD 104 has a function of storing object information to be displayed on the display 105.
  • the HDD 104 has a structure in which metal disks coated or vapor-deposited with a magnetic material are stacked, and this is rotated at high speed by a motor to read and write data by bringing the magnetic head closer.
  • the operations of the display 105, the camera 106, and the microphone 107 are controlled by the CPU 101.
  • FIG. 3 is a flowchart showing an object expansion operation and operations related to the expansion operation. Note that the determination steps (steps S 2, S 4, S 6) in FIG. 3 are executed by the CPU 101 in the image display apparatus A cooperating with the ROM 102 and the RAM 103. 4 (a), 4 (b), 5 (a), and 5 (b) are schematic views of the image display device A shown in FIG. Assume that four objects D3 to D6 are displayed in 105.
  • an object (D3 to D6 in FIGS. 4 and 5) is displayed on the display 105 of the image display apparatus A (step S1).
  • Information of the displayed object is stored in, for example, the HDD 104, and the participants P1 to P4 select an object to be displayed on the display 105, and the selected object is displayed.
  • step S2 When an object is displayed on the display 105, the participants P1 to P4 discuss based on the object. At this time, whether or not a conflict has occurred in the object displayed on the display 105. Is automatically determined (step S2). While the object is displayed on the display 105, the CPU 101 or the like always automatically detects whether or not a competition by the participant occurs.
  • the detection is performed based on the direction indicated by the fingers of the participants P1 to P4, the sound emitted by the participants P1 to P4, the line of sight of the participants P1 to P4, and the like.
  • the words uttered by the participants are specified for each participant based on the voices collected by the microphone 107.
  • a keyword is set for each object displayed on the display 105, and when a word uttered by a plurality of participants matches a keyword in one object, it is detected that a conflict has occurred.
  • objects and keywords are stored in advance in the ROM 102 as a data table.
  • step S2 If it is determined in step S2 that the competition by the participant has occurred (step S2; Yes), the competing objects are enlarged so that the participant who is discussing is easy to see (step S3). This point will be described with reference to FIG.
  • FIG. 4A four objects D3 to D6 are displayed on the display 105.
  • the participant P1 and the participant P3 are discussing by looking at the object D5.
  • the object D5 is enlarged as shown in FIG.
  • the contents of the object D5 are easy to see for the participants P1 and P3 who are discussing by looking at the object D5.
  • step S3 it is determined whether there is an object hidden by the enlarged object D5, and other objects D3, D4, and D6 around the enlarged object D5 are hidden. It is determined whether or not to move to a position that does not exist (step S4). Whether or not to move the hidden object is set, for example, in the initial setting in the image display apparatus A, and it is determined whether or not to move based on the set contents.
  • step S4 If it is determined in step S4 that the objects D3, D4, and D6 are moved to positions that are not hidden, the objects D3, D4, and D6 are moved to positions that are not hidden by the enlarged object D5 (step S5). For example, each object moves in the direction of the arrow in FIG. As a result, even if the object D5 is enlarged, the other objects D3, D4, and D6 are not hidden by the object D5, so that the participants P1 to P4 can continue to discuss the objects D3, D4, and D6.
  • step S6 it is determined whether or not the objects D3, D4, and D6 are reduced to a size that is not hidden by the enlarged object D5. Similar to the determination of whether or not to move the object, whether or not to reduce the object is set, for example, in the initial setting in the image display apparatus A, and it is determined whether or not to reduce based on the set contents. .
  • step S6 If it is determined in step S6 that the objects D3, D4, and D6 are reduced to a size that is not hidden, the objects D3, D4, and D6 are reduced to a size that is not hidden by the enlarged object D5 (step S7). For example, as shown in FIG. 5B, the objects D3, D4, and D6 are reduced. As a result, the object D5 is enlarged and does not move the positions of the objects D3, D4, D6, and the objects D3, D4, D6 are not hidden by the object D5, so that the participants P1 to P4 continue to be objects D3, D4, D6 Can be discussed.
  • FIG. 6 is a flowchart showing an operation for displaying competing objects in the shared display area of the display 105. 6 is executed when the CPU 101 in the image display apparatus A cooperates with the ROM 102 and the RAM 103.
  • 7A, 7B, and 8 are schematic views of the image display apparatus A shown in FIG. 1 as viewed from above.
  • the display 105 in the image display apparatus A includes four objects D3 to D6. Assume that it is displayed.
  • steps S11 and S12 in FIG. 6 are the same as steps S1 and S2 in FIG. 3, description thereof is omitted here.
  • step S12 If it is determined in step S12 that a competition by the participant has occurred (step S12; Yes), first, the competing object is moved to the shared display area of the display 105 (step S13). This will be described with reference to FIG. 7. As shown in FIG. 7A, four objects D3 to D6 are displayed on the display 105. For example, the participant P1 and the participant P3 see the object D5. Suppose you are discussing. In such a state, since it is determined that a conflict between the participant P1 and the participant P3 has occurred with respect to the object D5, the shared display area 105A on the right side of the display 105 as shown in FIG. Move the object D5 that competes with
  • the object D5A having the same content as the object D5 is displayed at the position before the movement of the object D5.
  • the participant may see the object D5 displayed in the shared display area 105A, or may see the object D5A at the position before the movement.
  • the object D5 is easier to understand when it is in the position before the movement due to the relationship with the other objects D3, D4, D6, there is an advantage that the object D5A having the same contents is displayed at the position before the movement.
  • step S13 the display direction of the competing object D5 is adjusted in consideration of the positions of the participants P1 and P3 (step S14). This will be described with reference to FIG. 8. In consideration of the positions of the participants P1 and P3, the display direction of the object D5 is adjusted by rotating the object D5 in the arrow direction shown in FIG.
  • the shared display area 105A shown in FIGS. 7 and 8 is on the same plane of the display 105. However, as shown in FIGS. 9 and 10, the shared display area 105A of the display 105 displays the object D3 and the like. It is also possible to stand in a direction perpendicular to the region. When a conflict with the object D5 occurs, the object D5 automatically moves to the shared display area 105A standing in the vertical direction as shown in FIG. 9B, and the object D5 is rotated as shown in FIG. If the display direction is adjusted, it becomes easier for a plurality of participants to see the object, and a meeting can be performed smoothly.
  • a mark M may be given to the competing object as shown in FIG. If the number of times of competition is multiple, the number of marks M may be increased by that number. In this way, the importance of the object can be easily understood, and even if new participants increase, the participant can immediately recognize which object has competed in the past, and smoothly You can have a meeting.
  • this invention is not limited to the said embodiment, Even if there exists a change and addition in the range which does not deviate from the summary of this invention, it is contained in this invention.
  • the table-type image display device A has been described as shown in FIG. 1, but other types of image display devices such as a display 105 displayed in the vertical direction may be used.
  • the detection unit and the processing unit are configured by the CPU 101 cooperating with the ROM 102 and the RAM 103 as illustrated in FIG. 2, but the detection unit and the processing unit are configured by a plurality of CPUs, ROM, and RAM. You may make it comprise.
  • a Image display device D1 to D6 Object 101 CPU 102 ROM 103 RAM 104 HDD 105 Display 106 Camera 107 Microphone 108 Communication Unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 テーブル型の画像表示装置Aにおいて、ディスプレイ105上に打ち合わせの資料等であるオブジェクトD1、D2が表示されている。例えば、打ち合わせの参加者P1、P2が共通のオブジェクトD2に基づいて討議する等、オブジェクトに対する複数の参加者による競合が発生した場合、その競合を自動的に検出して、討議をしている参加者に見やすいようにオブジェクトを拡大して表示する。

Description

画像表示装置
 本発明は複数人で打ち合わせ等を行う場合に使用される画像表示装置(電子ボード等)に関する。
 従来より、打ち合わせ用の写真や資料等を表示して複数人で打ち合わせ等を行う場合に使用される画像表示装置(電子ボード等)が提案されている。この画像表示装置は例えばテーブル型のものがあり、複数人がテーブル型の画像表示装置を取り囲んで画像表示装置に表示される資料を見ながら討議をする。
 画像表示装置として特許文献1又は特許文献2に記載の技術があり、特許文献1又は特許文献2に記載の技術は、複数人がテーブル型であるディスプレイ装置(画像表示装置)を取り囲んでディスプレイ装置の共通領域に表示された資料を見て討議をしている。特許文献1又は特許文献2に記載の技術のようにディスプレイ装置に表示された資料をもとに討議できれば、参加者用に資料を紙に出力して個別に用意する必要はなく、利便性がよい。
特開2000-47786号公報 特開2000-47788号公報
 ところで、テーブル型の画像表示装置に表示された一つの資料(オブジェクト)に基づいて、画像表示装置を取り囲んでいる参加者が討議する場合、画像表示装置に対する参加者の居場所によって資料の見やすさが異なってくる。例えば資料が表示されている位置に近い者は資料が見やすく、遠い者は資料が見にくい。特に画像表示装置が大きく参加者同士が離れており、且つ表示された資料が小さい場合は、参加者の居場所によって資料の見やすさは顕著に異なってくる。この場合、遠い者に対して近づけるように資料の表示位置を移動させると、今まで資料が近くに表示されて見やすかった者にとって見にくくなってしまい問題である。
 そこで、本発明の目的は、表示される一つの資料(オブジェクト)に基づいて複数の者が討議する場合、複数の者に資料を見やすくする画像表示装置を提供することにある。
 上記目的を達成するため、本発明に係る画像表示装置は、
オブジェクトを表示する表示部と、
当該表示部に表示されたオブジェクトに対する複数のユーザーによる競合を自動的に検出する検出部と、
当該検出部により前記競合が検出された場合、競合するオブジェクトを拡大する処理部と、
を有することを特徴とするものである。
 また、本発明に係る画像表示装置は、
オブジェクトを表示する表示部と、
当該表示部に表示されたオブジェクトに対する複数のユーザーによる競合を自動的に検出する検出部と、
当該検出部により前記競合が検出された場合、競合するオブジェクトを前記表示部における共有表示領域に移動し、当該共有表示領域に移動したオブジェクトの表示方向を調整する処理部と、
を有することを特徴とするものである。
 本発明に係る画像表示装置によれば、画像表示装置を取り囲み、画像表示装置に表示される一つの資料(オブジェクト)に基づいて複数の者が討議する場合でも、複数の者に資料を見やすくすることが出来る。
本発明に係る画像表示装置の概略図である。 本発明に係る画像表示装置のブロック図である。 オブジェクトの拡大動作及び拡大動作に関連する動作を示すフローチャート図である。 図1に示す画像表示装置を上方から見た概略図である。 図1に示す画像表示装置を上方から見た概略図である。 ディスプレイの共有表示領域に競合するオブジェクトを表示する動作を示すフローチャート図である。 図1に示す画像表示装置を上方から見た概略図である。 図1に示す画像表示装置を上方から見た概略図である。 別の形態の画像表示装置を上方から見た概略図である。 別の形態の画像表示装置を上方から見た概略図である。 競合するオブジェクトにマークを付与した状態を示す説明図である。
 [画像表示装置の概要]図1は本発明に係る画像表示装置の概略図である。
 図1に示す画像表示装置Aはテーブル型であり、水平方向にディスプレイ(表示部)105が広がっている。複数の参加者P1~P4が画像表示装置Aの周囲を取り囲むように座り、ディスプレイ105に表示された資料であるオブジェクトD1、D2を見て、打ち合わせを行うことが出来る。
 ディスプレイ105に表示されているオブジェクトD1は写真画像であり、オブジェクトD2はドキュメント画像である。その他各種のオブジェクトがディスプレイ105に表示可能であり、オブジェクトの情報は後述する画像表示装置AのHDD(Hard Disc Drive)104に記憶されている。また、オブジェクトの情報を記憶した記憶媒体を画像表示装置Aに接続してディスプレイ105に表示させることも出来る。
 ディスプレイ105はタッチパネル形式となっており、ディスプレイ105に表示されているオブジェクトD1、D2を参加者P1~P4が触って動かすことによりオブジェクトD1、D2の表示位置を変更することが出来る。また、参加者P1~P4がディスプレイ105に触って描くことにより、文字等をディスプレイ105に表示させることも出来る。
 各参加者P1~P4が座っている場所には個別にカメラ106とマイク107が設置されている。カメラ106により各参加者P1~P4が撮影され、マイク107により各参加者P1~P4が発する音声が収集される。
 図1に示す画像表示装置Aは参加者P1~P4の4人で打ち合わせを行う場合に単独で使用されているが、画像表示装置Aをネットワークを経由して遠隔地にある他の画像表示装置と接続することも可能である。この場合、同じオブジェクトを互いのディスプレイ上に表示し、カメラ106で撮影した画像やマイク107で収集された音声を他の画像表示装置に送信し、異なる場所に居る者同士で打ち合わせを行うことも出来る。
 図2は本発明に係る画像表示装置のブロック図であり、代表的な構成を示している。
 図2に示すように画像表示装置Aは通信部108を通じてPCと接続されており、PCから送信されたデータをHDD104に保存したり、ディスプレイ105にオブジェクトとして表示したりすることが出来る。
 画像表示装置AにはCPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103等が内蔵されている。CPU101は画像表示装置全体の動作を制御するものであり、ROM102やRAM103等に接続されている。このCPU101は、ROM102に記憶されている各種プログラムを読み出してRAM103に展開し、各部の動作を制御する。また、CPU101は、RAM103に展開したプログラムに従って各種処理を実行し、その処理結果をRAM103に格納する。そして、RAM103に格納した処理結果を所定の保存先に保存させる。なお、本実施形態においては、CPU101はROM102及びRAM103と協働することにより検出部、処理部を構成する。
 ROM102は、プログラムやデータ等を予め記憶しており、半導体メモリで構成されている。RAM103は、CPU101によって実行される各種プログラムによって処理されたデータ等を一時的に記憶するワークエリアを形成する。HDD104は、ディスプレイ105に表示するオブジェクトの情報を記憶する機能を有する。またHDD104は磁性体を塗布または蒸着した金属のディスクを重ね合わせた構造になっており、これをモータで高速に回転させて磁気ヘッドを近づけてデータを読み書きする。ディスプレイ105、カメラ106、マイク107はCPU101によって動作が制御される。
 [競合するオブジェクトの拡大]ところで、図1に示すテーブル型の画像表示装置Aを使用し、参加者P1~P4がディスプレイ105に表示されるオブジェクトD1、D2に基づいて討議する場合、参加者P1~P4の座る位置によってオブジェクトD1、D2の見やすさが異なってくる。例えば、図1に示すオブジェクトD2に基づいて参加者P1と参加者P4が討議する場合、参加者P1はオブジェクトD2に近いため見やすいが、参加者P4はオブジェクトD2に遠いため見にくい。
 そこで、複数の参加者が同じ一つのオブジェクトを見て討議する場合等、複数の参加者による競合が発生した場合、その一つのオブジェクトを拡大して表示し、複数の参加者がオブジェクトを見やすいようにする(本発明において「競合」とは、複数の参加者が同じ一つのオブジェクトを見て討議する場合等、一つのオブジェクトに対して複数の参加者の意識が合致することをいう)。以下、図3~図5を用いてディスプレイ105上でオブジェクトを拡大する動作について詳しく説明する。
 図3は、オブジェクトの拡大動作及び拡大動作に関連する動作を示すフローチャート図である。なお、図3における判断ステップ(ステップS2、S4、S6)は、画像表示装置AにおけるCPU101がROM102及びRAM103と協働することにより実行される。図4(a)、図4(b)、図5(a)、及び図5(b)は、図1に示す画像表示装置Aを上方から見た概略図であり、画像表示装置Aにおけるディスプレイ105には4つのオブジェクトD3~D6が表示されているものとする。
 まず、画像表示装置Aのディスプレイ105においてオブジェクト(図4及び図5ではD3~D6)を表示する(ステップS1)。表示されるオブジェクトの情報は例えばHDD104に記憶されており、参加者P1~P4がディスプレイ105に表示すべきオブジェクトを選択し、その選択されたオブジェクトが表示される。
 ディスプレイ105にオブジェクトが表示されると、そのオブジェクトに基づいて参加者P1~P4が討議をするわけであるが、この際にディスプレイ105に表示されているオブジェクトにおいて参加者による競合が発生したか否か自動的に判断する(ステップS2)。ディスプレイ105にオブジェクトが表示されている間は、常時、CPU101等が参加者による競合が発生するのか否か自動的に検出している。
 競合を検出する方法は多種考えられ、例えば、参加者P1~P4の指が指す方向、参加者P1~P4が発した音声、参加者P1~P4の視線等に基づいて検出する。
 参加者P1~P4の指が指す方向や参加者P1~P4の視線に基づいて競合を検出する場合は、まず各参加者P1~P4の前に設置されているカメラ106により撮影された画像を解析し、参加者の指が指す方向や参加者の視線を参加者毎に特定する。そして参加者毎に特定された方向等を合算して解析し、一つのオブジェクトに対して複数の参加者の指が指す方向が合致していたり、複数の参加者の視線が合致していたりした場合は、競合が発生したと検出する。
 また、参加者P1~P4が発した音声により競合を検出する場合は、まずマイク107により収集した音声に基づいて参加者が発した言葉を参加者毎に特定する。ディスプレイ105に表示されるオブジェクト毎にキーワードが設定されており、複数の参加者が発した言葉が一つのオブジェクトにおけるキーワードと合致した場合に、競合が発生したと検出する。この場合、オブジェクトとキーワードが予めデータテーブルとしてROM102等に記憶されている。
 ステップS2において参加者による競合が発生したと判断した場合は(ステップS2;Yes)、討議をしている参加者に見やすいように、競合するオブジェクトを拡大する(ステップS3)。この点について図4を用いて説明する。
 図4(a)で示すようにディスプレイ105には4つのオブジェクトD3~D6が表示されており、例えば参加者P1と参加者P3がオブジェクトD5を見て討議しているとする。そのような状態では、オブジェクトD5に対して参加者P1と参加者P3による競合が発生していると判断されるため、図4(b)で示すようにオブジェクトD5が拡大される。このように競合したオブジェクトD5を拡大して表示することにより、オブジェクトD5を見て討議をしている参加者P1、参加者P3にとって、オブジェクトD5の内容が見やすくなる。
 ところで、図4(b)で示すようにオブジェクトD5を拡大すると、ディスプレイ105に表示されている他のオブジェクトD3、D4、D6が拡大されたオブジェクトD5によって隠れてしまい、参加者P1~P4に見えなくなってしまう。そこで、オブジェクトD5を拡大しても他のオブジェクトD3、D4、D6が隠れないようにする。この点の動作については、図3におけるステップS4以降に示されている。
 図3に戻って動作の説明を継続する。ステップS3において競合するオブジェクトの拡大動作が完了すると、拡大されたオブジェクトD5によって隠れるオブジェクトがあるかどうか判断し、その上で拡大されたオブジェクトD5の周辺にある他のオブジェクトD3、D4、D6を隠れない位置に移動するか否か判断する(ステップS4)。隠れるオブジェクトを移動するか否かは例えば画像表示装置Aにおける初期設定において設定されており、設定されている内容に基づいて移動するか否か判断する。
 ステップS4においてオブジェクトD3、D4、D6を隠れない位置に移動すると判断した場合は、オブジェクトD3、D4、D6を拡大されたオブジェクトD5により隠れない位置に移動する(ステップS5)。例えば図5(a)の矢印方向に各オブジェクトが移動する。その結果、オブジェクトD5が拡大されても他のオブジェクトD3、D4、D6はオブジェクトD5によって隠れないため、参加者P1~P4は引き続きオブジェクトD3、D4、D6を見て討議することが出来る。
 また、ステップS6では、オブジェクトD3、D4、D6を拡大されたオブジェクトD5により隠れない大きさに縮小するか否か判断する。オブジェクトを移動するか否かの判断と同様に、オブジェクトを縮小するか否かは例えば画像表示装置Aにおける初期設定において設定されており、設定されている内容に基づいて縮小するか否か判断する。
 ステップS6においてオブジェクトD3、D4、D6を隠れない大きさに縮小すると判断した場合は、オブジェクトD3、D4、D6を拡大されたオブジェクトD5により隠れない大きさに縮小する(ステップS7)。例えば図5(b)に示すようにオブジェクトD3、D4、D6を縮小する。その結果、オブジェクトD5が拡大されてオブジェクトD3、D4、D6の位置を移動しなくて、オブジェクトD3、D4、D6はオブジェクトD5によって隠れないため、参加者P1~P4は引き続きオブジェクトD3、D4、D6を見て討議することが出来る。
 以上図3~図5を用いて説明したように、複数の参加者が同じ一つのオブジェクトを見て討議する場合等、複数の参加者による競合が発生した場合、少なくとも競合するオブジェクトを拡大すれば、複数の参加者がオブジェクトを見やすくなり、円滑に打ち合わせを行うことが出来る。また、オブジェクトの競合を自動的に検出してオブジェクトの拡大動作等を実行することにより、参加者により特別な操作が不要となり手間が省ける。
 [競合するオブジェクトの共有表示領域への移動・回転]図3~図5ではオブジェクトに対する参加者による競合が発生した場合は、競合するオブジェクトを拡大して参加者に見やすいようにしたが、競合するオブジェクトを参加者が見やすいディスプレイ105の共有表示領域に移動し、オブジェクトの表示方向を調整する方法も考えられる。この点を図6~図10を用いて説明する。
 図6はディスプレイ105の共有表示領域に競合するオブジェクトを表示する動作を示すフローチャート図である。なお、図6における判断ステップ(ステップS12)は、画像表示装置AにおけるCPU101がROM102及びRAM103と協働することにより実行される。図7(a)、図7(b)、図8は、図1に示す画像表示装置Aを上方から見た概略図であり、画像表示装置Aにおけるディスプレイ105には4つのオブジェクトD3~6が表示されているものとする。
 図6におけるステップS11、S12は図3におけるステップS1、S2と同様の動作であるため、ここでの説明は省略する。
 ステップS12において参加者による競合が発生したと判断した場合は(ステップS12;Yes)、まず、競合するオブジェクトをディスプレイ105の共有表示領域に移動する(ステップS13)。この点について図7を用いて説明すると、図7(a)で示すようにディスプレイ105には4つのオブジェクトD3~D6が表示されており、例えば参加者P1と参加者P3がオブジェクトD5を見て討議しているとする。そのような状態では、オブジェクトD5に対して参加者P1と参加者P3による競合が発生していると判断されるため、図7(b)に示すようにディスプレイ105の右側にある共有表示領域105Aに競合するオブジェクトD5を移動する。
 この際、オブジェクトD5の移動前の位置にオブジェクトD5と同じ内容のオブジェクトD5Aを表示する。このようにすれば、参加者は共有表示領域105Aに表示されたオブジェクトD5を見ても良いし、移動前の位置にあるオブジェクトD5Aを見てもよい。また、例えばオブジェクトD5が他のオブジェクトD3、D4、D6との関係で移動前の位置にある方が分かりやすい場合は、移動前の位置に同じ内容のオブジェクトD5Aを表示するメリットがある。
 図6に戻って説明を継続する。ステップS13において競合するオブジェクトD5を共有表示領域105Aに移動すると、参加者P1、P3の位置を考慮し、競合するオブジェクトD5の表示方向を調整する(ステップS14)。この点について図8を用いて説明すると、参加者P1、P3の位置を考慮して、図8に示す矢印方向にオブジェクトD5を回転させてオブジェクトD5の表示方向を調整する。
 以上図6~図8を用いて説明したように、複数の参加者が同じ一つのオブジェクトを見て討議する場合等、複数の参加者による競合が発生した場合、競合するオブジェクトを参加者が見やすいディスプレイ105の共有表示領域105Aに移動し、オブジェクトの表示方向を調整すれば、複数の参加者がオブジェクトを見やすくなり、円滑に打ち合わせを行うことが出来る。
 図7及び図8に示す共有表示領域105Aは、ディスプレイ105の同一平面上にあるが、図9及び図10に示すようにディスプレイ105の共有表示領域105AがオブジェクトD3等が表示されているディスプレイ105の領域に対して垂直方向に立っている形態も考えられる。オブジェクトD5に対する競合が発生した場合は、図9(b)で示すように垂直方向に立っている共有表示領域105AにオブジェクトD5が自動的に移動し、図10に示すようにオブジェクトD5を回転させて表示方向を調整すれば、同様に複数の参加者がオブジェクトを見やすくなり、円滑に打ち合わせを行うことが出来る。
 また、競合するオブジェクトは重要なオブジェクトであるという前提で、オブジェクトに対する複数の参加者による競合が発生した場合は、図11に示すように競合するオブジェクトにマークMを付与するようにしても良い。また競合した回数が複数回である場合は、その回数分だけマークMの個数を増やすようにしても良い。このようにすれば、オブジェクトの重要性が簡易に分かり、また新たな参加者が増えたとしても、どのオブジェクトが過去に競合したかどうかをその参加者がすぐに認識することができ、円滑に打ち合わせを行うことが出来る。
 なお、本発明は当該実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。
 本実施形態では、図1に示すようにテーブル型の画像表示装置Aを用いて説明したが、垂直方向にディスプレイ105が表示される等、他の形態の画像表示装置であってもよい。
 また、本実施形態では、図2に示すようにCPU101がROM102及びRAM103と協働することにより検出部、処理部を構成するようにしたが、複数のCPU、ROM、RAMにより検出部、処理部を構成するようにしても良い。
 A 画像表示装置
 D1~D6 オブジェクト
 101 CPU
 102 ROM
 103 RAM
 104 HDD
 105 ディスプレイ
 106 カメラ
 107 マイク
 108 通信部

Claims (11)

  1.  オブジェクトを表示する表示部と、
     当該表示部に表示されたオブジェクトに対する複数のユーザーによる競合を自動的に検出する検出部と、
     当該検出部により前記競合が検出された場合、競合するオブジェクトを拡大する処理部と、
    を有することを特徴とする画像表示装置。
  2.  前記処理部は、競合するオブジェクトを拡大した際に、拡大されたオブジェクト以外で前記表示部に表示されている他のオブジェクトを、前記拡大されたオブジェクトにより隠れない位置に移動する請求項1に記載の画像表示装置。
  3.  前記処理部は、競合するオブジェクトを拡大した際に、拡大されたオブジェクト以外で前記表示部に表示されている他のオブジェクトを、前記拡大されたオブジェクトにより隠れない大きさに縮小する請求項1又は2に記載の画像表示装置。
  4.  前記検出部は、ユーザーの指が指す方向に基づいて前記競合を検出する請求項1乃至3の何れか1項に記載の画像表示装置。
  5.  前記検出部は、ユーザーが発した音声に基づいて前記競合を検出する請求項1乃至3の何れか1項に記載の画像表示装置。
  6.  前記検出部は、ユーザーの視線に基づいて前記競合を検出する請求項1乃至3の何れか1項に記載の画像表示装置。
  7.  オブジェクトを表示する表示部と、
     当該表示部に表示されたオブジェクトに対する複数のユーザーによる競合を自動的に検出する検出部と、
     当該検出部により前記競合が検出された場合、競合するオブジェクトを前記表示部における共有表示領域に移動し、当該共有表示領域に移動したオブジェクトの表示方向を調整する処理部と、
     を有することを特徴とする画像表示装置。
  8.  前記処理部により競合するオブジェクトが前記共有表示領域に移動した場合、前記表示部は、競合するオブジェクトの移動前の位置に、競合するオブジェクトと同じ内容のオブジェクトを表示する請求項7に記載の画像表示装置。
  9.  前記検出部は、ユーザーの指が指す方向に基づいて前記競合を検出する請求項7又は8に記載の画像表示装置。
  10.  前記検出部は、ユーザーが発した音声に基づいて前記競合を検出する請求項7又は8に記載の画像表示装置。
  11.  前記検出部は、ユーザーの視線に基づいて前記競合を検出する請求項7又は8に記載の画像表示装置。
PCT/JP2009/063850 2008-08-21 2009-08-05 画像表示装置 WO2010021240A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010525653A JPWO2010021240A1 (ja) 2008-08-21 2009-08-05 画像表示装置
EP09808176.3A EP2320311A4 (en) 2008-08-21 2009-08-05 IMAGE DISPLAY DEVICE
US12/933,918 US20110025712A1 (en) 2008-08-21 2009-08-06 Image display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-212637 2008-08-21
JP2008212637 2008-08-21

Publications (1)

Publication Number Publication Date
WO2010021240A1 true WO2010021240A1 (ja) 2010-02-25

Family

ID=41707118

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/063850 WO2010021240A1 (ja) 2008-08-21 2009-08-05 画像表示装置

Country Status (4)

Country Link
US (1) US20110025712A1 (ja)
EP (1) EP2320311A4 (ja)
JP (1) JPWO2010021240A1 (ja)
WO (1) WO2010021240A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014178933A (ja) * 2013-03-15 2014-09-25 Konica Minolta Inc オブジェクト表示装置及び操作制御方法並びに操作制御プログラム
WO2016027536A1 (ja) * 2014-08-21 2016-02-25 ソニー株式会社 情報処理装置および制御方法
JP2020003892A (ja) * 2018-06-26 2020-01-09 コニカミノルタ株式会社 表記変換装置、変換表示装置、変換表示システム、制御方法及び記録媒体

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5209082B2 (ja) * 2011-04-19 2013-06-12 株式会社東芝 情報処理装置、情報処理方法およびプログラム
KR101984823B1 (ko) 2012-04-26 2019-05-31 삼성전자주식회사 웹 페이지에 주석을 부가하는 방법 및 그 디바이스
WO2015164461A1 (en) * 2014-04-23 2015-10-29 President And Fellows Of Harvard College Telepresence apparatus and method enabling a case-study approach to lecturing and teaching

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006197373A (ja) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp 視聴者情報測定装置
JP2008084110A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 情報表示装置、情報表示方法及び情報表示プログラム
JP2008145863A (ja) * 2006-12-12 2008-06-26 Fujitsu Ltd 表示制御装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US79693A (en) * 1868-07-07 David w
US7724242B2 (en) * 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US7701439B2 (en) * 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US10437459B2 (en) * 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US8068121B2 (en) * 2007-06-29 2011-11-29 Microsoft Corporation Manipulation of graphical objects on a display or a proxy device
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006197373A (ja) * 2005-01-14 2006-07-27 Mitsubishi Electric Corp 視聴者情報測定装置
JP2008084110A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 情報表示装置、情報表示方法及び情報表示プログラム
JP2008145863A (ja) * 2006-12-12 2008-06-26 Fujitsu Ltd 表示制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2320311A4 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014178933A (ja) * 2013-03-15 2014-09-25 Konica Minolta Inc オブジェクト表示装置及び操作制御方法並びに操作制御プログラム
US9405443B2 (en) 2013-03-15 2016-08-02 Konica Minolta, Inc. Object display apparatus, operation control method and non-transitory computer-readable storage medium
WO2016027536A1 (ja) * 2014-08-21 2016-02-25 ソニー株式会社 情報処理装置および制御方法
US10032437B2 (en) 2014-08-21 2018-07-24 Sony Corporation Information processing apparatus and control method
US10262630B2 (en) 2014-08-21 2019-04-16 Sony Corporation Information processing apparatus and control method
US10762876B2 (en) 2014-08-21 2020-09-01 Sony Corporation Information processing apparatus and control method
JP2020003892A (ja) * 2018-06-26 2020-01-09 コニカミノルタ株式会社 表記変換装置、変換表示装置、変換表示システム、制御方法及び記録媒体
JP7115061B2 (ja) 2018-06-26 2022-08-09 コニカミノルタ株式会社 表記変換装置、変換表示装置、変換表示システム、制御方法及び記録媒体

Also Published As

Publication number Publication date
US20110025712A1 (en) 2011-02-03
EP2320311A4 (en) 2013-11-06
JPWO2010021240A1 (ja) 2012-01-26
EP2320311A1 (en) 2011-05-11

Similar Documents

Publication Publication Date Title
JP7041326B1 (ja) 環境を注釈し、測定し、かつモデリングするためのシステム、方法、及びグラフィカルユーザインタフェース
JP6102588B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5852135B2 (ja) 重畳された注釈出力
CN114402275A (zh) 用于使用增强现实进行建模、测量和绘图的系统、方法和图形用户界面
JP4973245B2 (ja) 表示装置及びプログラム
WO2010021240A1 (ja) 画像表示装置
CN1284074C (zh) 为计算设备提供投影用户界面的方法和设备
KR102193029B1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
US20110138286A1 (en) Voice assisted visual search
JP2006107048A (ja) 視線対応制御装置および視線対応制御方法
WO2010018770A1 (ja) 画像表示装置
US10331330B2 (en) Capturing objects in editable format using gestures
WO2018154942A1 (ja) 表示制御装置、方法及びプログラム
JP2011086050A (ja) 情報処理端末及びコンピュータプログラム
CN112463098A (zh) 一种冻结特定应用程序更新的方法与系统
JP5448372B2 (ja) 選択式情報提示装置および選択式情報提示処理プログラム
WO2010021239A1 (ja) 画像表示システム
WO2012157270A1 (ja) 動画像編集再生装置
JP7247466B2 (ja) 情報処理システムおよびプログラム
KR101630404B1 (ko) 만화 데이터 표시 장치 및 방법
JP4635222B2 (ja) グラフィクス対話装置およびグラフィクス対話プログラム
JP2009282937A (ja) 情報自動編成提示装置および情報自動編成提示処理プログラム
JPH0816755A (ja) マルチメディア処理装置及びマルチメディア処理方法
TW201617800A (zh) 提供裝置的內容的方法與所述裝置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09808176

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010525653

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2009808176

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12933918

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE