Сенсорный экран с распознаванием пальцев

В очередной раз увидел на Хабре дискуссию про способы взаимодействия "человек-машина". Возникла мысль, что следующим шагом в развитии интерфейсов должен стать сенсорный экран, который не просто реагирует на нажатия, а умеет распознавать, каким пальцем оно сделано, и в зависимости от этого выполнять разные функции. То есть экран станет аналогом не однокнопочной мыши, как сейчас, а пяти или даже десятикнопочной. (Помнится, еще на старой работе, где имел довольно много дела с сенсорными экранами, никак не мог привыкнуть к тому, что с такого экрана никак нельзя сделать щелчок "правой кнопкой".)
Не очень представляю, как это реализовать технически. Пока есть две идеи: а) сделать экран обучаемым под конкретного пользователя за счет точного измерения емкости, создаваемой каждым из пальцев, б) каким-то образом распознавать не только прикосновение, но и положение руки целиком, когда она приближается к экрану, и распознавать палец на основе соотношения пятна нажатия и центра руки.
Второе усовершенствование экрана, которое возможно уже сейчас, — это программное "подтягивание" нажатий к активным элементам. Для этого нужно, чтобы экран передавал графической системе не координаты одной точки, а координаты всего пятна нажатия, а та накладывала это пятно на активные элементы экрана (кнопки, поля ввода и т.д.) и обнаруживала, на какой из них приходится максимальная площадь.