RU2541852C2 - Устройство и способ для управления пользовательским интерфейсом на основе движений - Google Patents

Устройство и способ для управления пользовательским интерфейсом на основе движений Download PDF

Info

Publication number
RU2541852C2
RU2541852C2 RU2013121805/08A RU2013121805A RU2541852C2 RU 2541852 C2 RU2541852 C2 RU 2541852C2 RU 2013121805/08 A RU2013121805/08 A RU 2013121805/08A RU 2013121805 A RU2013121805 A RU 2013121805A RU 2541852 C2 RU2541852 C2 RU 2541852C2
Authority
RU
Russia
Prior art keywords
image
touch
movement
screen
mobile terminal
Prior art date
Application number
RU2013121805/08A
Other languages
English (en)
Other versions
RU2013121805A (ru
Inventor
Хиун-Су ХОНГ
Йунг-Кеун ДЗУНГ
Дзае-Миеон ЛИ
Ил-Хван КИМ
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Publication of RU2013121805A publication Critical patent/RU2013121805A/ru
Application granted granted Critical
Publication of RU2541852C2 publication Critical patent/RU2541852C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Abstract

Изобретение относится к устройствам ввода. Технический результат заключается в повышении скорости ввода. Такой результат достигается тем, что воспринимающий касание экран отображает изображение и принимает ввод касания пользователя по меньшей мере в одной точке, блок датчиков обнаруживает движение устройства, вычислитель движения вычисляет величину движения устройства, после обнаружения движения устройства в блоке датчиков, и, когда касаются по меньшей мере одной точки на воспринимающем касание экране, контроллер определяет число точек касания, принимает информацию о величине движения устройства от вычислителя движения и определяет, изменить ли размер изображения или положение изображения в соответствии с числом точек касания. 3 н. и 12 з.п. ф-лы, 17 ил.

Description

ОБЛАСТЬ ТЕХНИКИ
Настоящее изобретение относится к пользовательскому интерфейсу, в частности к устройству и способу для управления интерфейсом в соответствии с движением, которое совершил мобильный терминал.
УРОВЕНЬ ТЕХНИКИ
В настоящее время электронные устройства, такие как телевизоры (TV), MP3-плееры, портативные мультимедийные проигрыватели (PMP), смартфоны и т.д., оборудованы рядом устройств ввода/вывода, чтобы дать возможность пользователю удобно управлять электронным устройством.
Среди устройств ввода-вывода в последнее время экспоненциально выросло использование смартфонов. В частности, доля использования воспринимающих касание (сенсорных) панелей постепенно возрастает на рынке мобильных терминалов, включающих в себя портативный телефон, смартфон и дорожный компьютер. Поскольку ожидается, что панели с воспринимающими касание экранами будут становиться все популярнее в большинстве смартфонов, рынок воспринимающих касание экранов для мобильных терминалов будет быстро расти. Панели с воспринимающими касание экранами также широко используются в электронных устройствах, таких как телевизоры (TV) или холодильники. Рынок электронных устройств будет занимать второе место по принятию панелей с воспринимающими касание экранами после рынка мобильных терминалов.
Недавно было выполнено обширное исследование по распознаванию намерения и действия пользователя на основании визуальной информации для естественного взаимодействия между пользователем и воспринимающим касание экраном. В частности, удобный для пользователя пользовательский интерфейс конфигурируется для распознания жеста, вводимого пальцем или стилусом. Тенденция пользовательских интерфейсов в настоящее время смещается от интерфейса, который функционирует в соответствии с вводом с помощью одного касания одним пальцем на воспринимающем касание экране к интерфейсу, который функционирует в соответствии с вводом с помощью нескольких касаний несколькими пальцами на воспринимающем касание экране.
Воспринимающий касание экран представляет собой стопку панели (плоскости) для обнаружения ввода и панели (плоскости), выступающей в качестве устройства отображения. В связи с этим, намерение пользователя может быть проанализировано и воспринято по вводу несколькими касаниями на воспринимающем касание экране, а результат анализа и восприятия может быть выведен на воспринимающем касание экране. В частности, пользовательский интерфейс на основе нескольких касаний устроен таким образом, что распознаются число касаний пальцем/касаний стилусом на воспринимающем касание экране и связанная операция и исполняется связанная команда. Ниже будет описана внутренняя структура мобильного терминала, поддерживающего ввод несколькими касаниями.
Фиг.1 является блок-схемой обычного мобильного терминала, поддерживающего ввод несколькими касаниями. На фиг.1 мобильный терминал включает в себя блок 101 вывода, контроллер 103, память 105 и блок 107 ввода.
На фиг.1 блок 101 вывода выводит изображение, такое как рисунок или Веб-страница, на воспринимающем касание экране. Изображение, такое как рисунок или Веб-страница, сохраняется в памяти 105. Когда изображение выводится на воспринимающем касание экране, пользователь может увеличить или уменьшить изображение, используя блок 107 ввода, в соответствии с выбором пользователя. Намеченная часть изображения, отображаемого на воспринимающем касание экране, может быть увеличена или сжата посредством прикосновения к ней двумя пальцами одновременно. Вместо пальцев может использоваться стилус. После ввода нескольких касаний через блок 107 ввода контроллер 103 управляет блоком 101 вывода для отображения на воспринимающем касание экране увеличенной или уменьшенной области, на которой выполнено несколько касаний.
Ниже будет описана примерная операция, выполняемая после ввода нескольких касаний, в мобильном терминале, имеющем конфигурацию, показанную на фиг.1.
Фиг.2A и 2B иллюстрируют примерную традиционную операцию, выполняемую после ввода нескольких касаний. Операция конкретно предназначена для увеличения конкретной области с помощью нескольких касаний на воспринимающем касание экране.
На фиг.2A пользователь касается воспринимающего касание экрана 201 двумя пальцами 205 с помощью щипательного движения для увеличения изображения 203 автомобиля, отображаемого на воспринимающем касание экране 201. Увеличенная область может отличаться в зависимости от места, в котором эти два пальца 205 осуществляют касание. На фиг.2B изображение 203 автомобиля увеличено путем разведения двух пальцев 205 на воспринимающем касание экране 201. Величина, до которой увеличивается изображение 203 автомобиля, может зависеть от расстояния между двумя пальцами 205, разведенными друг от друга.
Хотя на фиг.2A и 2B изображена только операция для увеличения изображения, увеличенное изображение может также быть уменьшено с помощью двух пальцев 205.
Обычно коэффициент увеличения или уменьшения масштаба предопределенной части воспринимающего касание экрана может регулироваться только путем нажатия заданной клавиши увеличения или уменьшения масштаба или совершения нескольких касаний. Когда пользователь хочет перейти с одной страницы на другую страницу или от одной части к другой части на одной и той же странице, пользователь должен нажать заданную клавишу перехода или прикоснуться и перетащить область воспринимающего касание экрана. Это означает, что для непрерывного увеличения и уменьшения масштаба пользователь должен сделать последовательный ввод клавиш или одновременно несколько касаний. Кроме того, чтобы перейти от конкретной части к другой части на одной и той же странице, пользователь должен неудобным образом последовательно вводить клавиши или совершать постоянно касание и перетаскивание. Поэтому трудно быстро и точно выполнять намеченную пользователем операцию просто с помощью ввода на воспринимающем касание экране или жеста, изображаемого на воспринимающем касание экране.
РАСКРЫТИЕ ИЗОБРЕТЕНИЯ
Техническая проблема
Аспектом вариантов осуществления настоящего изобретения является решение по меньшей мере этих проблем и/или недостатков и обеспечение по меньшей мере преимуществ, описанных ниже. Соответственно, аспектом вариантов осуществления настоящего изобретения является обеспечение устройства и способа для управления пользовательским интерфейсом так, чтобы изображение могло быть увеличено, уменьшено и перемещено на основании движения.
Решение проблемы
В соответствии с вариантом осуществления настоящего изобретения обеспечено устройство для управления пользовательским интерфейсом на основе движений, в котором воспринимающий касание экран отображает изображение и принимает ввод касания пользователя в по меньшей мере одной точке, блок датчиков обнаруживает движение устройства, вычислитель движения вычисляет величину движения устройства, после обнаружения движения устройства в блоке датчиков, и, когда касаются по меньшей мере одной точки на воспринимающем касание экране, контроллер определяет число точек касания, принимает информацию о величине движения устройства от вычислителя движения и определяет, изменить ли размер изображения или положение изображения в соответствии с числом точек касания.
В соответствии с другим вариантом осуществления настоящего изобретения обеспечен способ для управления пользовательским интерфейсом на основе движений, в котором изображение отображается на воспринимающем касание экране, определяется число точек касания, когда касаются по меньшей мере одной точки на воспринимающем касание экране, определяется, изменить ли размер изображения или положение изображения в соответствии с числом точек касания, и размер изображения или положение изображения изменяется в соответствии с движением устройства, включающего в себя воспринимающий касание экран.
ПОЛЕЗНЫЕ ЭФФЕКТЫ ИЗОБРЕТЕНИЯ
Согласно устройству и способу настоящего изобретения пользователь может легко увеличить, уменьшить и переместить изображение с помощью движения.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
Вышеупомянутые и другие задачи, признаки и преимущества некоторых вариантов осуществления настоящего изобретения будут более очевидными из следующего подробного описания, взятого в сочетании с прилагаемыми чертежами, на которых:
фиг.1 является блок-схемой обычного мобильного терминала, поддерживающего ввод несколькими касаниями;
фиг.2A и 2B изображают примерную традиционную операцию, которая осуществляется на основании ввода несколькими касаниями;
фиг.3 является блок-схемой мобильного терминала для управления пользовательским интерфейсом на основе движений согласно варианту осуществления настоящего изобретения;
фиг.4A-5C являются иллюстративными изображениями, показывающими движения мобильного терминала согласно варианту осуществления настоящего изобретения;
фиг.6A и 6B являются иллюстративными изображениями, показывающими операцию для увеличения или уменьшения изображения согласно варианту осуществления настоящего изобретения;
фиг.7A и 7B являются примерными изображениями, показывающими операцию для перемещения изображения согласно варианту осуществления настоящего изобретения;
фиг.8A и 8B являются иллюстративными изображениями, показывающими операции для управления пользовательским интерфейсом на основе движений, используя предопределенные клавиши, согласно варианту осуществления настоящего изобретения; и
фиг.9 является блок-схемой последовательности операций, изображающей операцию для управления пользовательским интерфейсом на основе движений согласно варианту осуществления настоящего изобретения.
На всех чертежах одинаковые номера позиций, как подразумевается, обозначают одни и те же элементы, признаки и структуры.
ЛУЧШИЕ ВАРИАНТЫ ОСУЩЕСТВЛЕНИЯ ИЗОБРЕТЕНИЯ
Ниже подробно описаны предпочтительные варианты осуществления настоящего изобретения со ссылкой на прилагаемые чертежи. Хотя конкретные детали, такие как компоненты, описываются в нижеследующем описании, они обеспечены для того, чтобы помочь всестороннему пониманию настоящего изобретения, и специалистам в области техники понятно, что в деталях в пределах объема и сущности настоящего изобретения могут быть сделаны изменения или модификации.
Фиг.3 является блок-схемой мобильного терминала для управления пользовательским интерфейсом на основе движений согласно варианту осуществления настоящего изобретения. На фиг.3 - мобильный терминал включает в себя блок 301 вывода, контроллер 303, память 305, блок 307 ввода, вычислитель 309 движения и блок 311 датчиков.
На фиг.3 блок 301 вывода выводит изображение, такое как фотография или Веб-страница, на воспринимающем касание экране. Изображение, такое как фотография или Веб-страница, сохранено в памяти 305. При необходимости может использоваться другое изображение, сохраненное в памяти 305, или необходимая фотография может быть захвачена с помощью модуля камеры, которым оснащен мобильный терминал.
Блок 307 ввода принимает информацию о числе точек касания на воспринимающем касание экране, перетаскивании, выполняемом на воспринимающем касание экране и т.д. Вычислитель 309 движения вычисляет направление перемещения или угол мобильного терминала и передает информацию о вычисленном направлении перемещения или угле контроллеру 303. Мобильный терминал может, по сути, перемещаться вверх, вниз, влево и вправо. Кроме того, мобильный терминал может перемещаться вперед в горизонтальном направлении, приближаясь к пользователю, или назад в горизонтальном направлении, удаляясь от пользователя. Угол, под которым перемещался мобильный терминал, вычисляется как угол, на который мобильный терминал наклонен относительно текущего положения, установленного как 0 градусов. Вычислитель 309 движения использует блок 311 датчиков для вычисления направления перемещения или угла мобильного терминала. В частности, вычислитель 309 движения вычисляет направление или угол, под которым мобильный терминал переместился, используя гиродатчик из числа одного или более датчиков блока 311 датчиков. Гиродатчик является датчиком, приспособленным обнаруживать вращения в дополнение к функциям датчика ускорения и, таким образом, отслеживать движения по 6 осям. Поэтому по сравнению с датчиком ускорения гиродатчик может обнаруживать более точные движения. Гиродатчик обнаруживает высоту и вращательный наклон так же как ускорение и замедление.
Контроллер 303 принимает информацию о числе точек касания и информацию о касании и перетаскивании на воспринимающем касание экране от блока 307 ввода, принимает информацию о вычисленном движении мобильного терминала от вычислителя 309 движения и управляет изображением, отображаемым на воспринимающем касание экране, по-разному в соответствии с числом точек касания.
Если касаются двух или более точек в какой-либо области воспринимающего касание экрана, контроллер 303 определяет, что ввод несколькими касаниями является командой для увеличения или уменьшения изображения, отображаемого на воспринимающем касание экране, и увеличивает или уменьшает изображение согласно информации об изменении в движении мобильного терминала, принятой от вычислителя 309 движения. Например, когда касаются двух точек в любой области воспринимающего касание экрана, и мобильный терминал перемещается ближе к пользователю под неизменным углом, или воспринимающий касание экран мобильного терминала наклоняется вперед относительно пользователя, изображение увеличивается. С другой стороны, когда мобильный терминал перемещается от пользователя под неизменным углом, или воспринимающий касание экран мобильного терминала отклоняется назад от пользователя, изображение уменьшается. Этот способ имеет те же эффекты, которые достигаются в традиционной схеме нескольких касаний, в которой изображение увеличивается или уменьшается с помощью двух пальцев, что будет очевидно из описания фиг.4A, 4B и 4C.
Фиг.4A, 4B и 4C являются примерными изображениями, показывающими движения мобильного терминала согласно варианту осуществления настоящего изобретения. На фиг.4A, 4B и 4C предполагается, что пользователь касается двух точек на воспринимающем касание экране.
На фиг.4A, когда пользователь притягивает к себе мобильный терминал в направлении оси -Z с неизменным текущим углом мобильного терминала, находясь лицом к воспринимающему касание экрану мобильного терминала, при этом касаясь любых двух точек на воспринимающем касание экране мобильного терминала, отображаемое изображение увеличивается. И наоборот, когда пользователь перемещает от себя мобильный терминал в направлении оси Z, находясь лицом к воспринимающему касание экрану мобильного терминала, отображаемое изображение уменьшается. Фиг.4B является видом сбоку мобильного терминала, который показывает путь, по которому движется мобильный терминал. Из фиг.4B видно, что мобильный терминал перемещается только в направлении оси Z или -Z без изменения его угла. Фиг.4C изображает изменение наклона мобильного терминала с осями Y и -Y? установленными в качестве оси вращения. Изображение, отображаемое на воспринимающем касание экране, может быть увеличено или уменьшено посредством наклона мобильного терминала вперед или назад относительно пользователя.
Если пользователь касается одной точки в любой области воспринимающего касание экрана, контроллер 303 определяет, что ввод одним касанием является командой для перемещения изображения, отображаемого на воспринимающем касание экране, и перемещает изображение вверх, вниз, влево или вправо в соответствии с информацией об изменении движения мобильного терминала, принятой от вычислителя 309 движения. Например, если пользователь перемещает мобильный терминал влево или поворачивает мобильный терминал влево, касаясь одной точки в любой области воспринимающего касание экрана, отображаемое изображение перемещается влево. То есть достигается такой же эффект, как со схемой для перемещения изображения в намеченном направлении путем касания и перетаскивания области воспринимающего касание экрана, что будет очевидно из фиг.5.
Фиг.5A, 5B и 5C изображают перемещения мобильного терминала согласно варианту осуществления настоящего изобретения. На фиг.5A, 5B и 5C предполагается, что пользователь касается одной точки на воспринимающем касание экране.
На фиг.5A, когда пользователь перемещает мобильный терминал в направлении оси X, -X, Y или -Y, при этом касаясь одной точки на воспринимающем касание экране мобильного терминала с неизменным текущим углом мобильного терминала, изображение, отображаемое на воспринимающем касание экране, движется в направлении, в котором перемещается мобильный терминал. Фиг.5B изображает изменения поворота мобильного терминала с осями Z и -Z, установленными в качестве оси вращения, а фиг.5C изображает изменения поворота мобильного терминала с осями Y и -Y, установленными в качестве оси вращения. Если оси Z и -Z установлены в качестве оси вращения, и мобильный терминал поворачивается вправо или влево по осям Y и -Y, отображаемое изображение может перемещаться вбок. С другой стороны, если оси Y и -Y установлены в качестве оси вращения, и воспринимающий касание экран мобильного терминала наклоняется или отклоняется на осях Y и -Y, отображаемое изображение может перемещаться вверх или вниз.
Если оси Y и -Y установлены в качестве оси вращения, отображаемое изображение может быть преобразовано по-другому в соответствии с числом точек касания на воспринимающем касание экране. На фиг.4C изображение увеличивается или уменьшается, тогда как на фиг.5C изображение перемещается вверх или вниз.
Как это делается обычно, контроллер 303 может также управлять изображением, отображаемым на воспринимающем касание экране в соответствии жестом, таким как перетаскивание, которое может следовать за касанием по меньшей мере одной точки в любой области воспринимающего касание экрана. Например, если касаются одной точки в любой области воспринимающего касание экрана и перетаскивают точку, к которой прикоснулись, влево, изображение отображения может перемещаться влево или может быть отображено следующее изображение. Если касаются двух точек на воспринимающем касание экране, изображение может быть увеличено или уменьшено согласно традиционной схеме нескольких касаний.
Теперь будет дано описание операции для управления отображаемым изображением со ссылкой на фиг.3.
Фиг.6A и 6B являются примерными изображениями, показывающими операцию для увеличения или уменьшения изображения согласно варианту осуществления настоящего изобретения.
На фиг.6A пользователь притягивает мобильный терминал к себе, беря воспринимающий касание экран так, чтобы касаться двух точек в любой области воспринимающего касание экрана во время просмотра воспринимающего касание экрана. Отображаемое изображение увеличивается в соответствии с движением притягивания к себе. Фиг.6B является видом сбоку, изображающим пользователя, притягивающего мобильный терминал к себе. Следует отметить, что изображение увеличивается просто путем приближения мобильного терминала к пользователю, как показано на фиг.4A и 4B, без наклона мобильного терминала вперед относительно пользователя.
Хотя это не показано на фиг.6A и 6B, когда пользователь перемещает мобильный терминал от себя, беря воспринимающий касание экран так, чтобы касаться двух точек в любой области воспринимающего касание экрана при просмотре воспринимающего касание экрана, отображаемое изображение может быть уменьшено. Функция увеличения изображения путем притягивания мобильного терминала и уменьшения изображения путем перемещения мобильного терминала от себя может быть изменена с помощью пользовательских настроек. Например, функция может быть изменена таким образом, что изображение уменьшается посредством притягивания мобильного терминала к себе и увеличивается посредством перемещения мобильного терминала от себя.
Коэффициент увеличения или уменьшения масштаба изображения может быть установлен пропорционально измерению угла вращения в направлении каждой оси, изображенном на фиг.4A-5C, с использованием гиродатчика, включенного в состав блока 311 датчиков мобильного терминала, смещаемого согласно движению пользователя. В ситуации, когда эта функция увеличения или уменьшения масштаба изображения доступна, пользователь может увеличить или уменьшить изображение согласно традиционной схеме нескольких касаний. В процессе выполнения традиционной функции увеличения или уменьшения масштаба на основе нескольких касаний, функция увеличения или уменьшения масштаба на основе движения может быть деактивирована во избежание взаимного влияния между традиционной и предложенной функциями увеличения или уменьшения масштаба.
Если касаются только одной точки или вообще не осуществляют касание на воспринимающем касание экране, операция увеличения и уменьшения масштаба изображения деактивируется в настоящем изобретении.
Фиг.7A и 7B являются примерными изображениями, показывающими операцию для перемещения изображения согласно варианту осуществления настоящего изобретения.
На фиг.7A, пользователь перемещает мобильный терминал слева направо, просматривая воспринимающий касание экран, при этом беря мобильный терминал так, чтобы касаться одной точки в любой области воспринимающего касание экрана. Изображение, отображаемое на воспринимающем касание экране, перемещается справа налево в соответствии с движением мобильного терминала.
На фиг.7B, фокусируя внимание на воспринимающем касание экране, левый воспринимающий касание экран отображает изображение до перемещения, а правый воспринимающий касание экран отображает вывод изображения, когда мобильный терминал перемещается слева направо. По мере перемещения изображения изображение, скрытое с правой стороны за экраном, появляется на экране. В случае, когда размещаются множество изображений, эти изображения могут последовательно появляться на экране при перемещении мобильного терминала.
Расстояние, на которое перемещается изображение, может быть установлено пропорциональным измерению угла вращения в направлении каждой оси, показанном на фиг.4A-5C, с использованием гиродатчика, включенного в состав блока 311 датчиков мобильного терминала, смещаемого согласно движению пользователя. В ситуации, когда эта функция сдвига изображения доступна, пользователь может переместить изображение, касаясь одной точки и перетаскивая касание на воспринимающем касание экране. В процессе выполнения функции перетаскивания функция сдвига изображения на основе движения может быть деактивирована во избежание взаимного влияния между функцией перетаскивания и функцией сдвига изображения из настоящего изобретения.
Если касаются только одной точки или вообще отсутствует касание на воспринимающем касание экране, операция сдвига изображения деактивируется в настоящем изобретении.
Хотя согласно настоящему изобретению описывается, что отображаемым изображением можно управлять по-разному в соответствии с числом точек касания в любой области воспринимающего касание экрана, то же самое может быть достигнуто путем назначения конкретных клавиш и управления отображаемым изображением в соответствии с числом нажатых клавиш, что будет описано ниже.
Фиг.8A и 8B являются примерными изображениями, показывающими операцию для управления пользовательским интерфейсом на основе движений, используя назначенные конкретные клавиши, согласно варианту осуществления настоящего изобретения.
На фиг.8A, когда пользователь нажимает кнопки цифр 1 и 3 в одно и то же время или с предопределенным интервалом на клавиатуре во время исполнения средства просмотра изображений, мобильный терминал может быть установлен с возможностью распознавать движение в качестве команды для увеличения или уменьшения отображаемого изображения. В соответствии с последующим движением мобильного терминала отображаемое изображение может быть увеличено или уменьшено.
На фиг.8B, когда пользователь нажимает любую из кнопок цифр 1 и 3 на клавишной панели во время исполнения средства просмотра изображений, мобильный терминал может быть установлен с возможностью распознавать движение в качестве команды для сдвига отображаемого изображения. Между тем, клавишная панель может быть заменена кнопками, которые функционируют на основании касаний пользователя.
Фиг.9 является блок-схемой последовательности операций, изображающей операцию для управления пользовательским интерфейсом на основе движений, согласно варианту осуществления настоящего изобретения.
На фиг.9, после получения ввода пользователя, мобильный терминал исполняет средство просмотра изображений для отображения изображения, такого как фотография или Веб-страница, на этапе 901. Изображение сохранено в памяти 305. Если мобильный терминал поддерживает беспроводной доступ в интернет, он может отображать Веб-страницу, не выполняя средство просмотра изображений. На этапе 903 мобильный терминал определяет, был ли обнаружен ввод касания через блок 307 ввода. Если ввод касания не был обнаружен, мобильный терминал продолжает исполнять средство просмотра изображений на этапе 901. После обнаружения ввода касания мобильный терминал переходит к этапу 905.
На этапе 905 мобильный терминал считает число точек касания на воспринимающем касание экране и управляет отображаемым изображением по-разному в соответствии с числом точек касания. Если касаются двух или более точек, мобильный терминал определяет, что необходимо увеличить или уменьшить изображение и начинает обнаруживать движение мобильного терминала. На этапе 907, если мобильный терминал движется вперед или назад или наклоняется вперед относительно пользователя или отклоняется назад, как показано на фиг.4A, 4B и 4C, мобильный терминал вычисляет величину, на которую мобильный терминал перемещается вверх, вниз, влево, вправо, назад или вперед или величину, на которую устройство наклонено вперед, отклонено назад, повернуто влево или повернуто направо, используя гиродатчик, включенный в состав блока датчиков, и увеличивает или уменьшает изображение в соответствии с вычисленной величиной. Движение мобильного терминала обнаруживается гиродатчиком блока 311 датчиков, а расстояние, на которое мобильный терминал переместился, или величина, на которую был наклонен мобильный терминал, вычисляется вычислителем 309 движения. Кроме того, две или более кнопки могут быть назначены и нажаты вместо двух точек для увеличения или уменьшения изображения.
Если касаются одной точки, мобильный терминал определяет, что необходимо сдвигать изображение, и начинает обнаруживать движение мобильного терминала. Когда мобильный терминал перемещается вверх, вниз, влево или вправо, или наклонен вперед, отклонен назад, повернут влево или повернут вправо, как изображено на фиг.5A, 5B и 5C, вычисляется расстояние, на которое выполнено перемещение, величина наклона или вращения мобильного терминала, и изображение сдвигается в направлении, соответствующем вычисленной величине. Как указано выше, движение мобильного терминала обнаруживается гиродатчиком блока 311 датчиков, а расстояние, на которое был перемещен мобильный терминал, или величина, на которую был наклонен мобильный терминал, вычисляется вычислителем 309 движения. Кроме того, может быть назначена и нажата конкретная кнопка вместо одной точки для сдвига изображения.
Хотя настоящее изобретение было показано и описано в подробностях со ссылкой на его варианты осуществления, специалистам в области техники понятно, что в форме и деталях могут быть сделаны различные изменения без отступления от сущности и объема настоящего изобретения, заданных формулой изобретения.

Claims (15)

1. Устройство для управления пользовательским интерфейсом на основе движений, причем устройство содержит:
воспринимающий касание экран для отображения изображения и приема ввода касания пользователя по меньшей мере в одной точке;
блок датчиков для обнаружения движения устройства;
вычислитель движения для вычисления величины движения устройства после обнаружения движения устройства в блоке датчиков; и
контроллер для, когда касаются по меньшей мере одной точки на воспринимающем касание экране, определения числа точек касания, приема информации о величине движения устройства от вычислителя движения и определения, изменить ли размер изображения или положение изображения в соответствии с числом точек касания.
2. Устройство по п.1, в котором, когда устройство перемещается в направлении, куда обращен воспринимающий касание экран, контроллер увеличивает изображение на воспринимающем касание экране.
3. Устройство по п.1, в котором, когда устройство перемещается в направлении, противоположном направлению, куда обращен воспринимающий касание экран, контроллер уменьшает изображение на воспринимающем касание экране.
4. Устройство по п.1, в котором, если число точек касания равно 2 или более, контроллер распознает ввод как команду для увеличения или уменьшения изображения и увеличивает или уменьшает изображение в соответствии с величиной движения устройства, вычисленной вычислителем движения.
5. Устройство по п.1, в котором, если число точек касания равно 1, контроллер распознает ввод как команду для сдвига изображения и управляет сдвигом изображения в соответствии с величиной движения устройства, вычисленной вычислителем движения.
6. Устройство по п.1, в котором вычислитель движения вычисляет величину, на которую устройство перемещается вверх, вниз, влево, вправо, назад или вперед, или величину, на которую устройство наклонено вперед, отклонено назад, повернуто влево или повернуто вправо, используя гиродатчик, включенный в состав блока датчиков.
7. Способ для управления пользовательским интерфейсом на основе движений, причем способ содержит:
отображение изображения на воспринимающем касание экране;
определение числа точек касания, когда касаются по меньшей мере одной точки на воспринимающем касание экране;
определение, изменить ли размер изображения или положение изображения в соответствии с числом точек касания; и
изменение размера изображения или положения изображения в соответствии с движением устройства, включающего в себя воспринимающий касание экран.
8. Способ по п.7, в котором, когда устройство перемещается в направлении, куда обращен воспринимающий касание экран, изменение содержит увеличение изображения на воспринимающем касание экране.
9. Способ по п.7, в котором, когда устройство наклонено в направлении, куда обращен воспринимающий касание экран, изменение содержит увеличение изображения на воспринимающем касание экране.
10. Способ по п.7, в котором, когда устройство перемещается в направлении, противоположном направлению, куда обращен воспринимающий касание экран, изменение содержит уменьшение изображения на воспринимающем касание экране.
11. Способ по п.7, в котором, когда устройство отклонено в направлении, противоположном направлению, куда обращен воспринимающий касание экран, изменение содержит уменьшение изображения на воспринимающем касание экране.
12. Способ по п.7, в котором определение содержит распознавание касания как команды для увеличения или уменьшения изображения, если число точек касания равно 2 или более, и изменение содержит увеличение или уменьшение изображения в соответствии с вычисленной величиной движения устройства.
13. Способ по п.7, в котором определение содержит распознавание касания как команды для сдвига изображения, если число точек касания равно 1, и изменение содержит сдвиг изображения в нужном пользователю направлении в соответствии с вычисленной величиной движения устройства.
14. Способ по п.7, в котором величина движения устройства измеряется путем вычисления величины, на которую устройство перемещается вверх, вниз, влево, вправо, назад или вперед, или величины, на которую устройство наклонено вперед, назад, влево или вправо.
15. Способ для управления пользовательским интерфейсом на основе движений, причем способ содержит:
вывод изображения к блоку вывода;
определение числа обнаруженных кнопок после обнаружения ввода по меньшей мере одной кнопки через блок ввода;
определение, изменить ли размер изображения или положение изображения в соответствии с числом обнаруженных кнопок; и
изменение размера изображения или положения изображения в соответствии с движением устройства, включающего в себя блок ввода и блок вывода.
RU2013121805/08A 2010-10-14 2011-10-13 Устройство и способ для управления пользовательским интерфейсом на основе движений RU2541852C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020100100435A KR101915615B1 (ko) 2010-10-14 2010-10-14 모션 기반 사용자 인터페이스 제어 장치 및 방법
KR10-2010-0100435 2010-10-14
PCT/KR2011/007628 WO2012050377A2 (en) 2010-10-14 2011-10-13 Apparatus and method for controlling motion-based user interface

Publications (2)

Publication Number Publication Date
RU2013121805A RU2013121805A (ru) 2014-11-20
RU2541852C2 true RU2541852C2 (ru) 2015-02-20

Family

ID=45938811

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013121805/08A RU2541852C2 (ru) 2010-10-14 2011-10-13 Устройство и способ для управления пользовательским интерфейсом на основе движений

Country Status (9)

Country Link
US (2) US9588613B2 (ru)
EP (2) EP2628067B1 (ru)
JP (2) JP5828000B2 (ru)
KR (1) KR101915615B1 (ru)
CN (2) CN107066045A (ru)
AU (1) AU2011314532B2 (ru)
BR (1) BR112013009161B1 (ru)
RU (1) RU2541852C2 (ru)
WO (1) WO2012050377A2 (ru)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11068049B2 (en) * 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
CN103389849B (zh) * 2012-05-07 2018-10-16 腾讯科技(北京)有限公司 一种基于移动终端的图像展示方法、系统和移动终端
JP2014078823A (ja) * 2012-10-10 2014-05-01 Nec Saitama Ltd 携帯電子機器、その制御方法及びプログラム
KR101990036B1 (ko) * 2012-10-31 2019-06-17 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
EP3033669B1 (en) * 2013-08-12 2024-01-17 Apple Inc. Context sensitive actions in response to touch input
US9110561B2 (en) 2013-08-12 2015-08-18 Apple Inc. Context sensitive actions
JP6195361B2 (ja) * 2013-08-21 2017-09-13 キヤノン株式会社 画像処理装置、制御方法及びプログラム
CN103455257A (zh) * 2013-08-30 2013-12-18 华为技术有限公司 一种电子放大镜的实现方法及用户终端
CN103699322A (zh) * 2013-12-19 2014-04-02 北京百纳威尔科技有限公司 图像缩放处理方法和装置
CN104951218B (zh) * 2014-03-25 2019-03-05 宏碁股份有限公司 行动装置及调整视窗大小的方法
IN2014DE00899A (ru) 2014-03-28 2015-10-02 Samsung Electronics Co Ltd
JP6601392B2 (ja) * 2014-04-07 2019-11-06 ソニー株式会社 表示制御装置、表示制御方法、及び、プログラム
KR20150124710A (ko) * 2014-04-29 2015-11-06 엘지전자 주식회사 폴리오 케이스 및 이동 단말기
CN104216634A (zh) * 2014-08-27 2014-12-17 小米科技有限责任公司 一种显示稿件的方法和装置
US9746930B2 (en) 2015-03-26 2017-08-29 General Electric Company Detection and usability of personal electronic devices for field engineers
JP6841647B2 (ja) * 2016-12-20 2021-03-10 シャープ株式会社 表示装置、表示方法及びプログラム
CN107256127A (zh) * 2017-06-08 2017-10-17 深圳睿尚教育科技有限公司 一种手写输入识别方法
WO2019178531A1 (en) * 2018-03-16 2019-09-19 EchoNous, Inc. Systems and methods for motion-based control of ultrasound images
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation
US10852853B2 (en) * 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2007101283A (ru) * 2004-07-09 2008-08-20 Нокиа Корпорейшн (Fi) Интеллектуальный пользовательский интерфейс

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3234633B2 (ja) 1992-06-19 2001-12-04 シャープ株式会社 情報処理装置
JPH07271505A (ja) * 1994-03-29 1995-10-20 Toshiba Corp 画像表示制御装置
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6317114B1 (en) * 1999-01-29 2001-11-13 International Business Machines Corporation Method and apparatus for image stabilization in display device
GB0004351D0 (en) * 2000-02-25 2000-04-12 Secr Defence Illumination and imaging devices and methods
US6861946B2 (en) 2000-05-17 2005-03-01 Caveo Technology Llc. Motion-based input system for handheld devices
US7466843B2 (en) * 2000-07-07 2008-12-16 Pryor Timothy R Multi-functional control and entertainment systems
JP4635342B2 (ja) 2001-01-10 2011-02-23 ソニー株式会社 情報処理端末および方法
US6834249B2 (en) * 2001-03-29 2004-12-21 Arraycomm, Inc. Method and apparatus for controlling a computing system
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
GB2416702B (en) * 2004-04-20 2008-08-13 Robert James Clements Team sport apparatus
KR101128572B1 (ko) 2004-07-30 2012-04-23 애플 인크. 터치 감지 입력 장치용 제스처
MX2007002821A (es) * 2004-09-14 2007-04-23 Nokia Corp Metodo para usar un dispositivo apuntador.
JP2006203463A (ja) * 2005-01-19 2006-08-03 Matsushita Electric Ind Co Ltd 画像表示方法、画像撮像方法、及び画像合成方法
US20060164382A1 (en) * 2005-01-25 2006-07-27 Technology Licensing Company, Inc. Image manipulation in response to a movement of a display
KR100753397B1 (ko) * 2006-04-04 2007-08-30 삼성전자주식회사 이동 단말기에서 화면 자동 온/오프 제어 장치 및 방법
US20070279755A1 (en) * 2006-06-01 2007-12-06 3M Innovative Properties Company Head-Up Display System
US8514066B2 (en) * 2006-11-25 2013-08-20 Trimble Navigation Limited Accelerometer based extended display
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
JP4341680B2 (ja) * 2007-01-22 2009-10-07 セイコーエプソン株式会社 プロジェクタ
US7946744B2 (en) * 2007-02-02 2011-05-24 Denso Corporation Projector and image pickup apparatus
US7573382B2 (en) * 2007-04-02 2009-08-11 General Electric Company System and method to manage movement of assets
US20080280642A1 (en) 2007-05-11 2008-11-13 Sony Ericsson Mobile Communications Ab Intelligent control of user interface according to movement
US20080284739A1 (en) 2007-05-17 2008-11-20 Microsoft Corporation Human Interface Device
KR101008361B1 (ko) * 2007-09-06 2011-01-14 (주)마이크로인피니티 조절 장치 및 방법
US8942764B2 (en) 2007-10-01 2015-01-27 Apple Inc. Personal media device controlled via user initiated movements utilizing movement based interfaces
US20090138800A1 (en) * 2007-11-23 2009-05-28 Mckesson Financial Holdings Limited Apparatus, method and computer-readable storage medium for directing operation of a software application via a touch-sensitive surface
JP4557058B2 (ja) 2007-12-07 2010-10-06 ソニー株式会社 情報表示端末、情報表示方法、およびプログラム
KR20090093766A (ko) 2008-02-28 2009-09-02 황재엽 모바일 가상 기타의 지판 표시 장치 및 방법
KR101445607B1 (ko) 2008-06-10 2014-09-29 삼성전자주식회사 가속 센서를 이용한 디지털 영상처리장치 및 이를 이용한이미지 재생방법
KR101505198B1 (ko) 2008-08-18 2015-03-23 엘지전자 주식회사 휴대 단말기 및 그 구동 방법
JP4720879B2 (ja) * 2008-08-29 2011-07-13 ソニー株式会社 情報処理装置及び情報処理方法
JP5279646B2 (ja) 2008-09-03 2013-09-04 キヤノン株式会社 情報処理装置、その動作方法及びプログラム
US8866840B2 (en) * 2008-09-08 2014-10-21 Qualcomm Incorporated Sending a parameter based on screen size or screen resolution of a multi-panel electronic device to a server
KR101503835B1 (ko) * 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
US8558803B2 (en) 2008-11-28 2013-10-15 Samsung Electronics Co., Ltd. Input device for portable terminal and method thereof
US8159465B2 (en) * 2008-12-19 2012-04-17 Verizon Patent And Licensing Inc. Zooming techniques for touch screens
WO2010076772A2 (en) 2008-12-30 2010-07-08 France Telecom User interface to provide enhanced control of an application program
US9069398B1 (en) * 2009-01-30 2015-06-30 Cellco Partnership Electronic device having a touch panel display and a method for operating the same
JP5058187B2 (ja) 2009-02-05 2012-10-24 シャープ株式会社 携帯情報端末
US8698736B2 (en) * 2009-03-24 2014-04-15 Immersion Corporation Handheld computer interface with haptic feedback
JP2011028635A (ja) 2009-07-28 2011-02-10 Sony Corp 表示制御装置、表示制御方法およびコンピュータプログラム
US20110087988A1 (en) * 2009-10-12 2011-04-14 Johnson Controls Technology Company Graphical control elements for building management systems
JP5602618B2 (ja) * 2010-06-10 2014-10-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
US8977987B1 (en) * 2010-06-14 2015-03-10 Google Inc. Motion-based interface control on computing device
US8542218B2 (en) * 2010-08-19 2013-09-24 Hyundai Motor Company Electronic switch apparatus for vehicle
KR101705119B1 (ko) * 2010-09-15 2017-02-10 삼성전자 주식회사 전자 기기에서 2차원 이미지로 3차원 화면을 구성하는 방법 및 그 전자 기기
US8872854B1 (en) * 2011-03-24 2014-10-28 David A. Levitt Methods for real-time navigation and display of virtual worlds
US9595083B1 (en) * 2013-04-16 2017-03-14 Lockheed Martin Corporation Method and apparatus for image producing with predictions of future positions

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2007101283A (ru) * 2004-07-09 2008-08-20 Нокиа Корпорейшн (Fi) Интеллектуальный пользовательский интерфейс

Also Published As

Publication number Publication date
CN103168282A (zh) 2013-06-19
JP2013541104A (ja) 2013-11-07
EP3543832A1 (en) 2019-09-25
EP3543832B1 (en) 2021-10-06
US20130194222A1 (en) 2013-08-01
BR112013009161A2 (pt) 2016-07-26
EP2628067B1 (en) 2019-04-17
EP2628067A2 (en) 2013-08-21
WO2012050377A3 (en) 2012-06-14
US20170178284A1 (en) 2017-06-22
AU2011314532B2 (en) 2015-08-20
US9588613B2 (en) 2017-03-07
AU2011314532A1 (en) 2013-04-18
US10360655B2 (en) 2019-07-23
KR101915615B1 (ko) 2019-01-07
BR112013009161B1 (pt) 2020-11-24
EP2628067A4 (en) 2016-08-31
KR20120038788A (ko) 2012-04-24
JP5828000B2 (ja) 2015-12-02
JP2015215907A (ja) 2015-12-03
CN107066045A (zh) 2017-08-18
WO2012050377A2 (en) 2012-04-19
RU2013121805A (ru) 2014-11-20

Similar Documents

Publication Publication Date Title
RU2541852C2 (ru) Устройство и способ для управления пользовательским интерфейсом на основе движений
US10216407B2 (en) Display control apparatus, display control method and display control program
JP5553812B2 (ja) スクロール制御装置、端末装置およびスクロール制御方法
US9013368B1 (en) Foldable mobile device and method of controlling the same
US8570283B2 (en) Information processing apparatus, information processing method, and program
US8976140B2 (en) Touch input processor, information processor, and touch input control method
US20090146968A1 (en) Input device, display device, input method, display method, and program
US10671269B2 (en) Electronic device with large-size display screen, system and method for controlling display screen
JP2010205050A (ja) タッチパネル付きユーザインタフェース装置、ユーザインタフェース制御方法、およびユーザインタフェース制御プログラム
TW201423564A (zh) 顯示元件、驅動顯示元件的方法以及電腦
KR20100136289A (ko) 이동 단말기의 디스플레이 제어 방법
KR20110066545A (ko) 터치스크린을 이용하여 이미지를 표시하기 위한 방법 및 단말
KR102049259B1 (ko) 모션 기반 사용자 인터페이스 제어 장치 및 방법
AU2017210607B2 (en) Apparatus and method for controlling motion-based user interface
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
US20220398008A1 (en) Volume Adjusting Gesture and Mistouch Prevention on Rolling Devices
JP2013178810A (ja) 携帯情報端末、表示制御方法およびプログラム