Informations

La perception tactile est-elle bidimensionnelle ou tridimensionnelle ?

La perception tactile est-elle bidimensionnelle ou tridimensionnelle ?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

La perception tactile est-elle bidimensionnelle ou tridimensionnelle ? Le sens tactile peut-il être cartographié sur une carte bidimensionnelle de la surface du corps humain ou l'homme reçoit-il un signal tactile en tant que position 3D (car les organes internes peuvent également ressentir la douleur) ?


Ce n'est pas en 2D : la perception tactile peut très simplement comprendre une bague autour de votre doigt. Si vous projetiez la peau de votre corps sur un plan 2D, il y aurait un moyen de représenter cette sensation, mais uniquement sous la forme d'une forme irrégulière. Vous avez donc besoin d'une troisième dimension pour traiter cognitivement cette sensation.

Mais la douleur fantôme nous dit que le cerveau n'enregistre pas toujours la perception tactile à partir d'une véritable cartographie 3D. Par exemple, une personne sans bras pourrait ressentir une douleur dans un doigt qui n'existe pas. Pas toujours, mais parfois.

C'est donc supérieur à deux, et parfois trois ne décrivent pas complètement les phénomènes connus. C'est donc (au moins) 4-D.


Eh bien, la vision est en 2D * 2 (deux rétines) mais la perception visuelle est en 3D, le signal auditif est en 1D * 2 (deux oreilles), mais sa perception est en 3D. La perception 3D dans ces sens est le résultat de l'analyse du signal sensoriel de dimension inférieure combiné à divers autres états internes. (Les états internes peuvent intégrer des informations au fil du temps pour produire de meilleures perceptions.)

De même, chaque capteur tactile est une source ponctuelle, mais la perception de l'ensemble des stimuli sensoriels tactiles est en 3D ; Je peux dire où se trouve la source du sens dans l'espace 3D par rapport à la position de mon corps. Les signaux devront être combinés avec la proprioception et les informations d'état dans le cerveau pour ce faire.

Notez que ces perceptions 3D ne fonctionnent pas toujours parfaitement. Parfois, nous formons une mauvaise perception ou ne parvenons pas à obtenir une perception.


Mécanismes centraux de la perception tactile des formes

Des études montrent que si les mécanismes corticaux du traitement de la forme et du mouvement en deux dimensions (2D) sont similaires au toucher et en vision, les mécanismes du traitement de la forme en trois dimensions (3D) sont différents. La forme et le mouvement 2D sont traités dans les zones 3b et 1 du cortex SI par des neurones avec des champs récepteurs (RF) composés de sous-régions excitatrices et inhibitrices. La forme 3D est traitée en zone 2 et SII et repose sur l'intégration des apports cutanés et proprioceptifs. Les RF des neurones SII varient en taille et en forme avec des structures hétérogènes constituées de coussinets à orientation ajustée mélangés à des coussinets excitateurs ou inhibiteurs non accordés. De plus, la sensibilité des neurones aux entrées cutanées change avec la conformation de la main. Nous émettons l'hypothèse que ces RF sont les noyaux sous-jacents à la reconnaissance d'objets tactiles.


Utiliser des représentations tactiles au lieu d'images

Les images en science ne sont pas de simples entités perceptives, mais portent un contenu conceptuel, abstrait et souvent mathématique. Une image mentale ressemble davantage à un modèle mental ou à un schéma représentant des informations visuelles, spatiales, temporelles, causales et autres (Ramadas, 2009). Le sens du toucher humain est un système perceptif actif, informatif et utile (Klatzky & Lederman, 2002). Le toucher actif est considéré comme « une modalité complexe qui extrait et encode une multitude d'informations à partir des récepteurs cutanés et kinesthésiques » (Ballesteros, 2008) en utilisant le toucher actif dans la perception haptique est très efficace dans la reconnaissance d'objets (Klatzy, Lederman, & Metzger, 1985). La recherche a révélé que l'on peut générer une image sans utiliser d'aides visuelles, principalement par le toucher, ce qui suggère que les processus de visualisation peuvent être améliorés en ajoutant ou en remplaçant des informations visuelles par d'autres modalités sensorielles (Reiner, 2008).

L'acquisition de modèles mentaux est la base d'un apprentissage significatif (Gentner et amp Steven, 1983). Dans leur étude visant à déterminer ce dont les apprenants ont besoin pour construire des modèles mentaux de systèmes, Chan et Black (2006) ont découvert que l'incorporation du canal haptique (manipulation-animation directe) dans le processus d'apprentissage des sciences offre aux élèves des expériences d'apprentissage appropriées pour raisonner sur les interactions causales et relations fonctionnelles dans les systèmes, facilitant ainsi leur acquisition de modèles mentaux. La plupart des études à cet égard, cependant, traitent des éléments haptiques/kinesthésiques en combinaison avec des indices visuels et beaucoup moins de recherches existent sur l'utilisation de l'haptique seul.

Dans le domaine de l'enseignement de la chimie, des modèles boule et bâton de structures moléculaires chimiques sont depuis longtemps disponibles et étudiés au regard de leur rôle dans l'apprentissage, prouvant que la manipulation de modèles tridimensionnels physiques ou virtuels aide les étudiants à construire une compréhension plus concrète des concepts de la chimie. (Copolo & Hounshell, 1995 Gabel & Sherwood, 1980 Wu & Shah, 2004).

Pendant ce temps, les professeurs de biologie et autres éducateurs utilisent de plus en plus les technologies de l'information et de la communication pour compléter leur enseignement dans les classes ordinaires, et de multiples représentations (c'est-à-dire des observations verbales, mathématiques, visuelles ou réelles) sont utilisées depuis longtemps pour enseigner la biologie (Treagust, 2007 ). Néanmoins, l'enseignement de la matière repose encore fortement sur l'utilisation de la vision (par exemple, des images, des vidéos et des observations visuelles) et il existe une limitation significative de l'utilisation et de la disponibilité de méthodes et de ressources non visuelles pour l'enseignement de la biologie.

Alors, qu'est-ce qui est actuellement disponible pour enseigner les sciences aux élèves aveugles ? Dans la plupart des cas, les ressources visuelles pédagogiques, telles que les images, les dessins et les diagrammes, sont remplacées par des graphiques tactiles et des modèles tridimensionnels. Les ressources les plus courantes spécialement conçues pour les élèves aveugles et malvoyants sont les diagrammes tactiles et les graphiques imprimés en vinyle thermoformé, qui sont fabriqués selon des normes graphiques tactiles spécifiques (Braille Authority for North America, 2010). Ces matériaux se trouvent largement chez tous les fournisseurs spécialisés. Bien que les matériaux graphiques thermoformés soient peu coûteux et faciles à obtenir/fabriquer, ils sont, par nature, des représentations bidimensionnelles d'objets qui peuvent compromettre la compréhension des objets. Les premières études comparant la reconnaissance tactile de représentations 3D et de dessins 2D d'objets communs par des sujets aveugles de naissance (Klatzy et al., 1985 Lederman, Klatzy, Chataway, & Summers, 1990) suggèrent que les images 2D sont extrêmement difficiles à identifier au toucher. , car le taux de reconnaissance bidimensionnelle est très faible par rapport au taux de reconnaissance de près de 100 % pour les objets 3D. Récemment, Thuerel, Witt, Claudet, Hatwell et Gentaz (2013) ont démontré que l'utilisation de la texture dans les images bidimensionnelles améliore les taux de reconnaissance des jeunes enfants aveugles. Ces études soutiennent la pratique courante et à long terme de la plupart des écoles d'éducation spéciale, où les parents participent à la création de représentations texturées d'objets ou d'images pour soutenir l'éducation de leurs enfants.

D'un autre côté, des représentations commerciales tridimensionnelles sont disponibles à partir de différentes sources. Mais la plupart d'entre eux ne sont pas spécialement conçus pour les aveugles, comme dans le cas des modèles anatomiques du corps humain, des globes terrestres, des modèles de structure de l'ADN, des animaux ordinaires et autres. Dans ces cas, les caractéristiques tactiles telles que la texture et les matériaux utilisés pour la fabrication ne sont souvent pas optimales pour une résolution tactile facile, même pour celles disponibles chez des fournisseurs spécialisés.

Programme de sciences pour les apprenants malvoyants

Les descriptions des adaptations des programmes d'enseignement des sciences pour les apprenants malvoyants sont rares et pour la plupart dépassées (Linn, 1972 Malone & De Lucchi, 1979 Miner, Nieman, Swanson, & Wood, 2001 Norman, Causeau, & Stephanich, 1998 Stephanich, 2001 Thier, 1971 ), notamment au Mexique, où ces types de ressources sont pratiquement inexistants. Pour enseigner efficacement dans la classe inclusive, il est judicieux de considérer la méthode d'apprentissage multisensorielle proposée par Montessori (1912) qui utilise un mélange d'approches visuelle, auditive, tactile et kinesthésique. L'utilisation de tous les sens disponibles pour enseigner les sciences aux étudiants aveugles est proposée par Soler-Martí (1999) en partant du principe que l'utilisation de tous les sens permet la capture d'informations précieuses dans la première étape de la méthode scientifique : l'observation. Des recherches ont montré que l'utilisation de sens multiples pour l'apprentissage est impliquée dans le développement de processus cognitifs généraux, de la pensée concrète à la pensée abstraite (Loucks-Horsley et al., 1990), qui est une partie essentielle de l'apprentissage des sciences.

À propos de ce projet

Notre travail est né du besoin de créer une méthodologie qui aide les étudiants malvoyants et aveugles à apprendre la biologie. Nous avons décidé que cela pouvait être réalisé grâce à la conception et à la production de représentations tactiles adéquates et engageantes, accompagnées d'activités pédagogiques pour l'enseignement/apprentissage de la biologie dans des cadres formels et informels inclusifs. Nous visons à ce que les enfants aveugles et malvoyants aient les mêmes opportunités d'apprentissage que leurs pairs voyants, en partageant le même matériel et en réalisant les mêmes activités. Étant donné que notre population cible d'origine était constituée d'élèves du primaire, nous avons initialement décidé de nous concentrer sur les représentations tridimensionnelles, plutôt que sur les graphiques tactiles bidimensionnels d'autres sortes, afin d'éviter d'exiger les compétences supplémentaires nécessaires à l'interprétation graphique par les jeunes apprenants.

Ainsi, cet article décrit la création de modèles tactiles tridimensionnels et le développement d'un programme d'études multisensoriel inclusif pour soutenir efficacement l'enseignement des sujets de biologie, rendant les sujets microscopiques accessibles aux élèves malvoyants et voyants aux niveaux élémentaire et intermédiaire.


La perception tactile est-elle bidimensionnelle ou tridimensionnelle ? Le sens tactile peut-il être cartographié sur une carte bidimensionnelle du.

La perception tactile est-elle bidimensionnelle ou tridimensionnelle ? Le sens tactile peut-il être cartographié sur une carte bidimensionnelle de la surface du corps humain ou l'homme reçoit-il un signal tactile en tant que position 3D (car les organes internes peuvent également ressentir la douleur) ?

Réponses aux devoirs

Ce n'est pas en 2D : la perception tactile peut très simplement comprendre un anneau autour de votre doigt. Si vous projetiez la peau de votre corps sur un plan 2D, il y aurait un moyen de représenter cette sensation, mais uniquement sous la forme d'une forme irrégulière. Vous avez donc besoin d'une troisième dimension pour traiter cognitivement cette sensation.

Mais la douleur fantôme nous dit que le cerveau n'enregistre pas toujours la perception tactile à partir d'une véritable cartographie 3D. Par exemple, une personne sans bras pourrait ressentir une douleur dans un doigt qui n'existe pas. Pas toujours, mais parfois.

Il est donc supérieur à deux, et parfois trois ne décrivent pas complètement les phénomènes connus. C'est donc (au moins) 4-D.

La perception tactile peut être considérée comme tridimensionnelle en raison de la perception 3D des sens.

Le signal tactile ne peut pas être cartographié sur une carte bidimensionnelle de la surface du corps humain. La perception de l'ensemble des stimuli sensoriels tactiles est en 3D.

Ajouter la réponse à :

QUESTION 2 21 Les éléments finis peuvent apparaître sous plusieurs formes telles que des domaines bidimensionnels et tridimensionnels Donnez deux.

QUESTION 2 21 Les éléments finis peuvent apparaître sous plusieurs formes telles que des domaines bidimensionnels et tridimensionnels Donner deux exemples et un croquis pour chaque domaine. (4) 22 Expliquez les termes suivants tels qu'ils sont utilisés dans les équations d'éléments finis a Contrainte simple b Déformation simple 23 Utilisez la méthode des éléments finis pour développer la matrice de rigidité pour l'élément 2 de la structure de poutre en porte-à-faux en acier illustrée à la figure 2 Le module d'élasticité EST 200 kN /mm2 avec une épaisseur de 1 unité.

Questions 1 pts Les humains et de nombreux autres animaux diurnes ont trois types de cônes - un.

Questions 1 pts Les humains et de nombreux autres animaux diurnes ont trois types de cônes - un stimulé au maximum par la lumière bleue, un deuxième stimulé au maximum par la lumière verte et un troisième stimulé au maximum par la lumière rouge. Comment les êtres humains peuvent-ils voir des couleurs comme l'orange, le jaune et le violet ? Lorsque les cônes rouges sont stimulés, ils inhibent les cônes bleus et verts. Lorsque les cônes bleus sont stimulés, ils inhibent uniquement les cônes verts. Les cônes verts, lorsqu'ils sont stimulés, n'inhibent pas les autres cônes, mais le font.

A. B. 2. La statistique du test est ______ (arrondissez à deux décimales si nécessaire.) 3. La valeur P est ______ (arrondissez t.

AB 2. La statistique du test est ______ ​(Arrondir à deux décimales si nécessaire.) 3. La​ valeur P est ______ ​(Arrondir à trois décimales si nécessaire.) 4. Énoncer la conclusion pour le test. ________________ l'hypothèse nulle. Il y a ______ suffisamment de preuves pour étayer l'affirmation selon laquelle les personnes traitées avec des aimants ont une réduction moyenne de la douleur plus importante que celles recevant un traitement fictif. 5. Est-il valable d'affirmer que les aimants pourraient sembler efficaces si les tailles d'échantillons.

Je ne sais pas si quelqu'un pourrait être quelqu'un qui pourrait lire mon article

Je ne sais pas si quelqu'un pourrait relire mon article ?Résumé exécutif Le poste de directeur financier consiste à coordonner les activités financières des travailleurs d'une succursale ou d'un service de la banque, tels que le courtage, la gestion des risques ou le service de crédit . Les autres responsabilités consistent à superviser les flux de trésorerie, à évaluer et à traiter les demandes de prêt, à superviser les programmes de formation, à créer des réseaux au sein des communautés pour trouver et attirer de nouvelles entreprises et à préparer une analyse de gestion via des rapports opérationnels et de risque. Approuver, rejeter et coordonner les lignes de.

Questions à choix multiples (valant chacune deux points) 1. Lequel des énoncés suivants décrit le processus dans lequel.

Questions à choix multiples (valant chacune deux points) 1. Lequel des énoncés suivants décrit le processus par lequel on adopte des modèles de comportement qui mènent à une plus grande satisfaction dans la vie ? A. le bien-être B. la santé C. la détermination sociale D. l'auto-efficacité 2. Le modèle de changement de comportement en matière de santé met l'accent sur le fait que A. le changement se produit en tant que processus. B. les gens ne changent que lorsqu'ils sont confrontés à une maladie. C. le changement ne se produit que lorsque l'environnement le supporte. D. les changements sont plus efficaces lorsqu'ils sont basés sur.

Salut! Je me demande si quelqu'un peut m'aider avec ces problèmes de physique à partir de mon livre sur les crackers d'examen.

Salut! Je me demande si quelqu'un peut m'aider avec ces problèmes de physique à partir de mon livre de crackers d'examen ? J'étudie pour le mcat et les explications dans le livre et l'étudiant en médecine ne m'aident pas. Merci beaucoup!! A. 2A B. 3 A C. 6A D. 12 A après que le circuit ait été allumé pendant longtemps ? 12 V 2Ω 2Ω A. 1,2 x 10s C B. 2,5 x 106 C C. 6,0 x 10 C D. 1,7×10-7 C ERhal.

Codez les rapports suivants en utilisant les codes CPT, les codes ICD-10-CM et appliquez tous les modificateurs applicables. Devoir #1.

Codez les rapports suivants en utilisant les codes CPT, les codes ICD-10-CM et appliquez tous les modificateurs applicables. Devoir #1 Description : La biopsie cunéiforme du lobe supérieur droit montre un carcinome non à petites cellules peu différencié avec un schéma de croissance solide et sans différenciation glandulaire définie par microscopie optique. DESCRIPTION BRUTE : A. Reçu frais étiqueté avec le nom du patient, désigné « coin du lobe supérieur droit » , est un coin de poumon de 8,0 x 3,5 x 3,0 cm qui a une ligne d'agrafage de 11,5 cm. Il y a 0,8 x.

Codez les rapports suivants à l'aide des codes ICD-10-CM. Devoir #1 Description : La biopsie en coin du lobe supérieur droit.

Codez les rapports suivants à l'aide des codes ICD-10-CM. Devoir #1 Description : La biopsie cunéiforme du lobe supérieur droit montre un carcinome non à petites cellules peu différencié avec un schéma de croissance solide et sans différenciation glandulaire définie par microscopie optique. DESCRIPTION BRUTE : A. Reçu frais étiqueté avec le nom du patient, désigné « coin du lobe supérieur droit » , est un coin de poumon de 8,0 x 3,5 x 3,0 cm qui a une ligne d'agrafage de 11,5 cm. Il existe une tumeur sessile de 0,8 x 0,7 x 0,5 cm avec.

Codez les rapports suivants à l'aide des codes CPT et appliquez les modificateurs applicables. Devoir #1 Description : Le.

Codez les rapports suivants à l'aide des codes CPT et appliquez les modificateurs applicables. Devoir #1 Description : La biopsie cunéiforme du lobe supérieur droit montre un carcinome non à petites cellules peu différencié avec un schéma de croissance solide et sans différenciation glandulaire définie par microscopie optique. DESCRIPTION BRUTE : A. Reçu frais étiqueté avec le nom du patient, désigné « coin du lobe supérieur droit » , est un coin de poumon de 8,0 x 3,5 x 3,0 cm qui a une ligne d'agrafage de 11,5 cm. Il existe un x 0,8 x 0,7.

S'il vous plaît, si quelqu'un peut m'aider à répondre à toutes ces questions

Bonjour. S'il vous plaît, si quelqu'un peut m'aider à répondre à toutes ces questions. J'ai peu de réponses et j'aimerais les comparer à mes propres réponses merci.1. Le Dr Hannah place un stéthoscope sur la poitrine d'un enfant de sept ans. Les poumons révèlent des râles basilaires. Quelle méthode le Dr Hannah utilise-t-il pour effectuer l'examen physique ?A. Auscultation C. PercussionB. Palpation D. Visualisation2. La cardiologie est l'étude du cœur. Lequel des termes suivants décrit le fondement sur lequel le mot médical est généralement associé.


Système tridimensionnel (3D) versus système bidimensionnel (2D) pour la résection laparoscopique des tumeurs surrénales : une étude cas-témoins

La laparoscopie est la technique standard pour réséquer les tumeurs surrénales dans le monde entier. Les principaux inconvénients de la laparoscopie 2D conventionnelle sont une perception limitée de la profondeur et un retour tactile. Les systèmes de laparoscopie 3D de haute qualité actuellement disponibles pourraient améliorer les résultats chirurgicaux de la surrénalectomie. Nous comparons l'innocuité et l'efficacité de la laparoscopie 3D versus 2D dans le traitement des tumeurs surrénales.

Méthodes

Cette étude cas-témoins a analysé de manière prospective les données recueillies auprès de patients atteints de tumeurs surrénales bénignes ou malignes traitées par laparoscopie dans un seul centre médical universitaire entre avril 2003 et mars 2020. Nous avons collecté des variables démographiques, diagnostiques, préopératoires et opératoires, et utilisé plusieurs variables linéaires et logistiques. régression pour analyser les différences dans divers résultats à court terme entre les deux approches tout en ajustant les facteurs de confusion potentiels.

Résultats

Nous avons inclus 150 patients : 128 avec des tumeurs bénignes et 22 avec des tumeurs malignes 95 traités par laparoscopie 3D (groupe cas) et 55 par laparoscopie 2D (groupe témoin). Après ajustement pour les caractéristiques du patient, de la chirurgie et de la tumeur, une vision 2D était associée à un temps opératoire plus long (?? = 0.26, p = 0,002) et une plus grande perte de sang (?? = 0.20, p = 0,047). Il n'y avait pas de différence significative dans les taux de conversion en chirurgie ouverte (rapport de cotes [OR] = 1,47 (IC à 95 % 0,90–22,31) p = 0,549) ou de complications (3,6 % contre 2,1 % p = 0.624).

Conclusion

Avec des chirurgiens expérimentés, la surrénalectomie laparoscopique était plus sûre et plus réalisable avec le système 3D qu'avec le système 2D, entraînant moins de pertes de sang opératoires et une durée opératoire plus courte sans aucune différence dans les taux de conversion en chirurgie ouverte ou de complications postopératoires. Pour les tumeurs surrénales, la laparoscopie 3D offre des avantages par rapport à la laparoscopie 2D.


Méthodes

L'expérience de perception impliquant des mesures avec des sujets humains a été menée conformément aux directives du Comité d'éthique pour la recherche en sciences sociales de l'Université de Stockholm. Les sujets ont participé volontairement et ont reçu des billets de cinéma en compensation. Des instructions écrites et orales informaient les sujets qu'ils pouvaient perturber l'expérience à tout moment.

Fabrication et caractérisation de surfaces

Les surfaces à motifs ont été préparées en exploitant les rides de surface 28,29,30,39, comme le montre la figure 1. Les rides ont d'abord été formées sur du polydiméthylsiloxane (PDMS), formé spontanément lors de l'application d'une contrainte mécanique à un système bicouche où la couche supérieure a un module élastique plus élevé 28,29,30,39 . Les spécimens de PDMS ont été exposés à une irradiation à l'ozone ultraviolet (UVO) ou à une oxydation au plasma dans un état précontraint, créant un film mince et rigide avec un module d'élasticité plus élevé par rapport au substrat plus mou sous-jacent. Lors du relâchement de la déformation (comme une compression), des rides, avec la longueur d'onde optimale minimisant l'énergie de déformation du système, se sont formées spontanément perpendiculairement à la direction de la déformation. En utilisant différents temps d'exposition de 1 min à 120 min, des surfaces avec des longueurs d'onde de 270 nm jusqu'à 90 m ont été obtenues. Le motif froissé sur le PDMS a ensuite été reproduit dans un matériau plus durable à l'aide du polymère adhésif durcissable aux UV NOA81 (Norland Products Inc.). L'amplitude des plis et la longueur d'onde des surfaces ont été mesurées avec un microscope à force atomique (Dimension 3100, Digital Instruments) ou un profilomètre à stylet (Taylor Hobson Form Talysurf PGI 800). Au total, 16 surfaces à motifs, ainsi que deux surfaces de référence vierges sans motif, ont été utilisées comme stimuli dans une expérience psychophysique ainsi que dans des mesures de friction tactile.

Mesures de friction tactile

Le coefficient de frottement a été mesuré contre un doigt humain selon les protocoles précédemment décrits 7,10,26 en utilisant un capteur de force piézoélectrique (Kistler 9251A) avec un amplificateur de charge (Kistler 5038A3). Les surfaces froissées ont été montées sur la plaque supérieure du capteur de force avec du ruban adhésif double face.

Échelle multidimensionnelle

Vingt femmes (intervalle : 21 à 32 ans) ont évalué la similarité perçue entre toutes les paires possibles des 18 surfaces de stimulus, ce qui a donné un total de 201 paires, dont 48 paires en double pour la fiabilité test-retest (Fig. 1S supplémentaire). Les participants avaient les yeux bandés et ils ont sondé les surfaces avec l'index de leur main préférée dans une direction désignée (perpendiculaire aux rides) aussi longtemps qu'ils le souhaitaient et aux charges et vitesses qu'ils ont eux-mêmes établies. Chaque paire de surfaces s'est vu attribuer une valeur de similarité autodéterminée sur une échelle de pourcentage allant de complètement similaire (100 %) à totalement dissemblable (0 %). Les valeurs de similitude ont été inversées en une échelle de dissemblance et l'ensemble des matrices de dissemblance de 20 sujets ont été soumis à une mise à l'échelle des différences individuelles (INDSCAL) 32,33, une méthode de mise à l'échelle multidimensionnelle comprenant la variance interindividuelle entre les sujets et les stimuli. Une solution bidimensionnelle a été choisie à partir du scree-plot (Fig. 2S supplémentaire) et l'interprétation de ces résultats a été soutenue par une analyse en composantes principales (ACP) de la matrice de similarité du groupe. Après chaque comparaison ainsi que chaque mesure de friction, la surface du stimulus a été délicatement nettoyée avec de l'acétone, en utilisant un tissu non pelucheux. Des descriptions détaillées de la préparation de surface des stimuli, des mesures de friction tactile et de la méthode psychophysique et des analyses de données sont fournies dans les informations supplémentaires.

Mise à l'échelle des différences individuelles (INDSCAL)

Lors de la réalisation de mesures de similarité avec des participants humains, il est inapproprié de supposer qu'ils pèseront tous les dimensions de la même manière. Au contraire, l'hypothèse est qu'il existe un espace de stimulus commun à tous les participants, mais les participants ont leur propre façon de pondérer les dimensions dans cet espace. INDSCAL est un modèle 32 qui est utilisé pour tenir compte de cette préférence unique pour chaque dimension. Mathématiquement, le modèle INDSCAL peut être exprimé comme 40

La dissemblance mesurée entre les stimuli j et k pour le sujet je est exprimé comme . X représente une coordonnée dans un r-espace dimensionnel, c'est à dire. Xjt est la coordonnée du stimulus j en dimension t. La dimensionnalité est notée par r. Les fonctions Fje sont considérés comme linéaires en métrique MDS, ce qui est le cas dans la présente expérience. Les différences individuelles dans l'utilisation des échelles sont prises en compte par l'adjonction d'un facteur de pondération (w) à chaque dimension t pour le sujet je. Le programme INDSCAL estime à la fois les coordonnées des stimuli et les poids individuels d'une manière qui correspond le mieux à la dissemblance observée. Le symbole () remplace le symbole égal ( = ) car l'équation (1) inclut le terme d'erreur inconnu et non catégorisé.


L'art tactile sur l'éducation inclusive

Au Brésil, un ensemble de réglementations juridiques destinées aux personnes handicapées a été établie au fil des ans, visant à étendre les garanties de protection et de promotion sociales, comme le décret n° 6.949/2009, qui accorde le statut d'amendement constitutionnel à la Convention des Nations Unies. sur les droits des personnes handicapées (BRÉSIL, 2011). Une autre initiative importante a été le lancement du Plan National pour les Droits des Personnes Handicapées-Plano Viver Sem Limite (Décret n° 7.612/2011 (BRÉSIL, 2011b), qui est présenté dans quatre domaines d'action principaux : l'accès à l'éducation, ( IBGE, 2010) dans les pays en développement comme le Brésil, qui estime que 1% et 1,5% de la population est déficiente visuelle. L'étude ou l'appréciation des œuvres d'art est presque toujours inaccessible à un grand nombre de personnes déficientes visuelles. Dans ce contexte, la technologie d'assistance est un outil essentiel pour fournir à cette partie de la population brésilienne le plein exercice de ses droits. La technologie d'assistance peut être comprise comme l'ensemble des technologies développées pour permettre aux personnes handicapées de vivre au quotidien, en leur offrant une autonomie et la vie inclusive.Un autre grand allié est la modélisation tridimensionnelle, également connue sous le nom de modélisation 3D, qui travaille sur la construction d'un objet ou d'un modèle tridimensionnel dans un environnement virtuel. , c'est-à-dire avec l'aide de l'ordinateur. Il est devenu important pour ce travail en matière de permettre aux déficients visuels d'apprécier les œuvres d'art par le contact tactile. Ainsi, le travail a présenté le développement de modèles graphiques tridimensionnels basés sur des œuvres d'art d'importance nationale et mondiale qui, une fois imprimées en trois dimensions (par imprimante 3D), permettaient l'exploration tactile et l'étude par les amateurs d'art ayant des déficiences visuelles, à travers le ce qu'on appelle « lire avec les mains ».

mots clés Technologie d'assistance Modélisation tridimensionnelle Conception graphique

Introduction

Le développement accéléré des technologies informatiques entraîne des conséquences en tant qu'innovation technologique pour les zones de projet et l'industrie au cours des dernières décennies. Les nouveaux outils technologiques incluent non seulement l'industrie, mais contribuent à l'avancement global de la société vers un monde plus digne pour tous, diminuant les différences et assurant l'inclusion sociale. Actuellement, dans les domaines de la conception et de l'ingénierie, la modélisation tridimensionnelle est devenue une procédure standard dans de nombreuses procédures, ce qui fait que le prototypage rapide et les actions de fabrication numérique intègrent les derniers défis du projet. Deuxièmement (Pupo, (Pupo, (2012), l'un des principaux avantages du développement du prototypage rapide est la possibilité d'avoir l'affichage en tant que grand collaborateur de la compréhension spatiale, ainsi que la réalisation de l'idée.

Cette nouvelle pratique a eu un impact énorme sur l'inclusion des personnes ayant une déficience visuelle, en offrant la possibilité de détenir une variété d'informations tactiles telles que des œuvres d'art et des éléments caractéristiques de la culture des personnes, en les admettant dans l'univers culturel de manière artistique plus croyable. Bien que diverses méthodes aient été proposées abordant la question de la construction en relief de surfaces en relief (3D ou 2.5D) à partir d'images uniquement, seules certaines abordent explicitement le problème de la construction de modèles en haut-relief et de peintures, plus précisément, les besoins des personnes ayant une vision déficiences.

Ainsi, l'objectif principal de ce travail est de développer une méthode systématique pour la génération semi-automatique de modèles 2.5D ou 3D à partir de peintures d'art et d'acquis culturels. Par conséquent, un certain nombre de procédures spécifiques seront utilisées pour résoudre la plupart des problèmes typiques qui surviennent lorsqu'il s'agit de la représentation artistique d'une scène.

La différence entre les méthodes des nouveaux modèles numériques et les méthodes traditionnelles de modélisation est qu'elles ne visaient pas seulement à produire des copies identiques d'un même produit. Au contraire, sont des systèmes suffisamment adaptatifs pour produire un large spectre de formes différentes, permettant l'exécution fidèle du travail choisi pour le prototypage et votre représentation de divers formats de présentation. En conséquence, il y a une attention croissante parmi les concepteurs, les ingénieurs, les enseignants, les étudiants et les professionnels axés sur l'inclusion des personnes aveugles sur le potentiel de production d'éléments artistiques et culturels à la perception à travers l'exploration tactile.

Problématique

La modélisation tridimensionnelle est un thème abordé dans plusieurs domaines de connaissances et de formes diverses. A fourni l'occasion de mettre en œuvre des idées et de multiplier les éléments. Cependant, pour que l'image puisse être captée dans tout votre message et assimilée par l'observateur, il est nécessaire d'effectuer une analyse individualisée des caractéristiques de l'œuvre, afin que les malvoyants comprennent les plans de succession et ce qu'ils représentent. La modélisation 3D peut être effectuée non seulement dans des programmes d'infographie, mais également avec d'autres fonctionnalités. Parmi eux, biscuit maison, argile en argile, pâte à modeler, plâtre et poids comestible. C'est une activité sensorielle, ce qui en fait surtout l'enfant handicapé moteur de développement visuel, cognitif et affectif. Cependant, il est nécessaire de présenter les informations correctement, dans leur intégralité. Pas assez de formes de mousse, il faut de la cohérence dans le respect des volumes et des formes. Le chant vivant, la forme cylindrique, l'objet le plus éloigné doit être perçu par la personne déficiente visuelle, pour que l'image ait un sens, c'est compris.

Objectifs généraux

Ce travail avait pour objectif le développement d'une méthodologie pour faciliter l'inclusion des élèves déficients visuels dans les classes d'éducation artistique et d'histoire de l'art, en transformant des œuvres d'art bidimensionnelles (peintures) en modèles tridimensionnels, ce qui a permis l'exploration et la compréhension tactiles. de l'image par l'élève. Dans ce contexte, les objectifs spécifiques consistaient à définir les critères de sélection des images à être sobrelevadas et la détermination du modèle informatique de modélisation tridimensionnelle, qui a permis la transformation de l'image bidimensionnelle en modèle tridimensionnel.

État de l'art/cadre théorique

Selon l'Organisation mondiale de la santé (OMS), le handicap est le nom attribué à toute perte ou anomalie d'une structure ou d'une fonction psychologique, physiologique ou anatomique. Fait référence à la biologie de l'être humain. Dans ce contexte, la Convention internationale des droits de la personne handicapée, signée à New York le 30 mars 2007, a apporté un concept mieux adapté au monde contemporain : Art 1 (. ) « Les personnes handicapées sont celles qui ont à long terme des entraves physiques, mental, intellectuel ou sensoriel qui, en interaction avec diverses barrières, peut entraver votre participation pleine et effective à la société sur un pied d'égalité avec les autres personnes ».

La personne handicapée peut avoir un handicap simple ou multiple. Les différents handicaps peuvent se regrouper en plusieurs groupes, parmi lesquels la déficience visuelle qui, conformément au décret n° 3.298/99, modifié par le décret n° 5.296/2004, l'acuité visuelle de la cécité est égale ou inférieure à 0,05 dans le meilleur des cas. eye, with best optical correction the low vision, meaning visual acuity between 0.3 and 0.05 in the better eye with best optical correction. Simply put, the term refers to the loss or reduction of visual ability in irreversible character due to congenital or hereditary causes, even after clinical treatment and/or surgery and use of conventional glasses.

The decrease in visual response according to criteria established by the World Health Organization (who) can be mild, moderate, severe, profound (the Group of subnormal vision or low vision) and complete lack of visual response (blindness). According to the data of the Census 2010, conducted by the Brazilian Institute of geography and statistics-IBGE, more than 45.6 million Brazilians, approximately 23.9% of the population, declared to possess some type of disability. The visual impairment, reaching 35.8 million people in 2010, was the most affected both men, with 16%, as women, with 21.4%. The visually impaired are facing particular difficulties capable of limiting the practice of activities or restrict participation in social, economic and cultural life. To continue your daily actions, count with the help of normovisuais guides, walking sticks and seeing-eye dogs. They also have a way of writing and reading, Braille system.

According to the technical AIDS Committee-CAT, PORTARIA° 142/2006, “assistive technology is an area of knowledge, interdisciplinary, feature products, resources, methodologies, strategies, practices and services that aim to promote the functionality, related to activity and participation of people with disabilities, disability or reduced mobility, aiming your autonomy, independence, quality of life and social inclusion”. Threedimensional modeling, also known as 3D modeling, is an area of computer graphics, which has as its purpose the generation of three-dimensional entities, generation of static scenes (rendering), motion pictures (animation), with or without interactivity. It is the job of building an object, shape, character or scenario in a virtual environment, that is, with the aid of the computer by means of advanced computational tools and targeted as software or computer programs 3D graphics. According to Santos (2003), the three-dimensional models allow “the confrontation of projects with different forms of representations, from the same point of view and under various angles”. In this way, the work presented the preparation of three-dimensional graphics models of art works, considering the technical characteristics of the painting, which once produced by 3D printing, enable people with visual impairment or total tactile contact and partial appreciation of works of art.

Résultats et discussion

This work contributes to the inclusion of students with visual impairments in the study and assessment of pictorial arts, causing them to meet, through tactile exploration, some relevant artworks to art movements covered in classes in more courses and levels. The competing studies so that the methodology developed is presented in favour of running both the simplicity of the procedures in the implementation process of three-dimensional models as the possibility of running them with the resources own school. From the “reading with your hands”, through the tactile contact, the person with visual impairment will be participating in inclusive action, that is by the way a right, but is not always guaranteed. At the moment two works were chosen.

The choice of the first work (Figure 1), “the mermaid” of Alfredo Volpi, for the development of three-dimensional graphic model came about because of a few elements and simplicity in work, in which it was applied new techniques in the development of the model. The three-dimensional model (Figure 2) has been prepared taking into account the elements present on the site. The contours generate the image of several Moons in a sky that was evidenced in three-dimensional modeling to that when a person with visual impairment touch the model notice relief of strokes and according to your repertoire can understand the figures are being represented.

Figure 1:”The mermaid” of alfredo volpi.


Figure 2:Three-dimensional modeling of the work “the mermaid”.


Figure 3:“Great festive facade” of alfredo volpi.


The “Great Festive Facade” (Figure 3), Alfredo Volpi, was also entered on account of their characteristics that enabled the exploration of new techniques. It is noticed that the painter liked to play a game of colors and shapes and that “Flags” was the most devoted of your life. In this way, the work was chosen because of your consecration and cultural contribution. The three-dimensional model developed in the chest (Figure 4), from the second work, followed the same reasoning the first model created. Another feature was used for testing and the like.

Figure 4:Three-dimensional modeling in the chest of the book “great festive facade”.


Figure 5:Set of portuguese tiles IXX.


Figure 6:Three-dimensional modeling of the tile.


The use of Styrofoam for running 2 models, 5d is given as an option of lower cost and easier implementation, by not requiring knowledge and uses of software and electronic equipment. Is a possibility and awakens the use of manual activities. (Figure 5) depicts a tile found in the Centre of São Luís-Maranhão, Brazil. The development of three-dimensional graphic model came about due to continuity of traces of work that make up a drawing, thus facilitating the understanding of same. The three-dimensional model (Figure 6) Figure 7 has been prepared taking into account the intentions of the author, according to the characteristics observed in the work. When transformed into three-dimensional, the touch perception is sharper, facilitating the understanding of people with low vision.

Image 7 :Detailed technical breakdown of the tile.


Conclusion

The conflict between the qualification of an action as affordable or not accessible, arises from social standards due to the use of models considered typical and related to use by most people. The practice at school does not differ. The models of conduct applied to formal education are, in your vast majority, still based on the profile of the student who has no physical or mental disability. The proposal of the inclusive school takes into account the challenge that involves the coexistence among unequal and the need to modify their actions in order to contemplate all and their differences. In the study of art there is still a distance between speech and practice of school inclusion, although the field of museology has already incorporated the Inclusive Museum designation. The proposal presented in this work is geared towards minimizing this abscissa, allowing visually impaired students access to some works of art are relevant to the study of art. This study was supported by threedimensional modeling for computer associated with the research of the characteristics of each work, as it pertains to your texture, volume and depth. In this way, contributed to facilitate and simplify the process of transformation of a two-dimensional work to a threedimensional model, offering more works of art at a low cost for the inclusion of people with visual impairment.

Les références

© 2018 Luíza Rosa. This is an open access article distributed under the terms of the Creative Commons Attribution License , which permits unrestricted use, distribution, and build upon your work non-commercially.


1 Introduction

Human beings use various senses to communicate with the external environment including tactile, visual, auditory, olfactory, and taste senses. Tactile senses refer to the feeling of temperature, humidity, pain, pressure, and vibration from nerve cells distributed on the skin of the body. Fingers are one of the most sensitive parts of the human body in the process of tactile perception. The tactile behaviour of fingers is important and common in our work and life such as in writing, grasping, lifting, manufacturing, playing etc. One of the most important features during these activities is the relative motion between the finger and the object surface. Tribological problems occur during the relative motion, and the tribological phenomenon often contains rich tactile information. The skin of fingers undergoes both compressive and tensile deformation as well as normal and tangential stresses when sliding on the surface of objects, which stimulates the mechanoreceptors and subsequently produces electrical signals that are transmitted to the cerebral cortex by neurones. Consequently, humans can perceive the roughness, texture, warmth, humidity, and other properties of surfaces. An analysis of the relationship between tactile perception and tribological properties of fingers can deepen the understanding of human sensation. Moreover, exploring the elaborate tactile perception system of humans has a huge application potential in different areas: developing the touch accuracy of intelligent robots [ [1] , [2] ], designing the packaging of products to improve feeling [ [3] , [4] ], improving the tactile sensation with cosmetic foundations to increase commodity value [ [5] , [6] ], enhancing clinical gloves to improve medical performance [ [7] , [8] ] etc.

Analyse literature records according to different classifications.

Systematically review articles with high relevance that have extensively examined tribological and perception investigations.

Identify the corresponding gaps in research and the new directions.

Provide a trend analysis for the future study.

First author Type of study Research focus
Zhou [ [9] ] mechanism (engineering) biotribology
Van Kuilenburg [ [10] ] finger friction and tactile perception
Van Der Heide [ [11] ] skin friction
Adams[ [12] ] finger friction
Derler [ [13] ] skin friction
Tomlinson [ [14] ] finger friction
Sivamani [ [15] ] skin friction
Pei [ [16] ] mechanism (others) tactile motion perception
Bleyenheuft [ [17] ] behavioural science
Proske [ [18] ] proprioceptive senses
Tiest [ [19] ] tactile perception
Johansson [ [20] ] tactile motion perception
Lederman [ [21] ] tactile perception
Chi [ [22] ] application tactile sensing technology
Bos [ [23] ] tactile sensing technology
Stassi [ [24] ] tactile sensing technology
Tiwana [ [25] ] tactile sensing technology
Yousef [ [26] ] tactile sensing technology
Chouvardas [ [27] ] tactile displays technology
Jones [ [28] ] tactile displays technology
Dargahi [ [29] ] tactile sensing technology
Lee [ [30] ] tactile sensing technology

Revoir

  1. Compare and contrast special senses and general senses.
  2. Que sont les récepteurs sensoriels ?
  3. List five types of sensory receptors and the type of stimulus each detects.
  4. Describe the range of tactile stimuli that are detected in the sense of touch.
  5. Explain how the eye collects and focuses light to form an image and converts it to nerve impulses.
  6. Identify two common vision problems, including both their causes and their effects on vision.
  7. Explain how the structures of the ear collect and amplify sound waves and transform them into nerve impulses.
  8. What role does the ear play in balance? Which structures of the ear are involved in balance?
  9. Describe two ways that the body senses chemicals and the special sense organs that are involved in these senses.
  10. Explain why your skin can detect different types of stimuli, such as pressure and temperature.
  11. Choose one. Sensory information is sent to the central nervous system via (efferent/afferent) nerves.
  12. Identify a mechanoreceptor used in two different human senses, and describe the type of mechanical stimuli that each one detects.
  13. If a person is blind but their retina is functioning properly, where do you think the damage might be? Expliquez votre réponse.
  14. When you see colors, what receptor cells are activated? Where are these receptors located? What lobe of the brain is primarily used to process visual information?
  15. The auditory nerve carries:
    1. Smell information
    2. Taste information
    3. Balance information
    4. Sound information

    Les références

    Abushagur, A. A. G., Arsad, N., Reaz, M. I., and Bakar, A. A. A. (2014). Advances in bio-tactile sensors for minimally invasive surgery using the fibre bragg grating force sensor technique: a survey. Capteurs 14, 6633�. doi: 10.3390/s140406633

    Afshari, E., Najarian, S., and Simforoosh, N. (2010). Application of artificial tactile sensing approach in kidney-stone-removal laparoscopy. Biomed. Mater. Eng. 20, 261�. doi: 10.3233/BME-2010-0640

    Afshari, E., Najarian, S., Simforoosh, N., and Farkoush, S. H. (2011). Design and fabrication of a novel tactile sensory system applicable in artificial palpation. Minim. Invasive Ther. Allied Technol. 20, 22�. doi: 10.3109/13645706.2010.518739

    Ahmadi, R., Packirisamy, M., Dargahi, J., and Cecere, R. (2012). Discretely loaded beam-type optical fiber tactile sensor for tissue manipulation and palpation in minimally invasive robotic surgery. IEEE Sens. J. 12, 22�. doi: 10.1109/jsen.2011.2113394

    Al-Handarish, Y., Omisore, O. M., Igbe, T., Han, S., Li, H., Du, W., et al. (2020). A survey of tactile-sensing systems and their applications in biomedical engineering. Av. Mater. Sci. Eng. 2020, 1�. doi: 10.1155/2020/4047937

    Bandari, N., Dargahi, J., and Packirisamy, M. (2020). Tactile sensors for minimally invasive surgery: a review of the state-of-the-art, applications, and perspectives. IEEE Access 8, 7682�. doi: 10.1109/access.2019.2962636

    Baumann, I., Plinkert, P. K., Kunert, W., and Buess, G. F. (2001). Vibrotactile characteristics of different tissues in endoscopic otolaryngologic surgery ‐ in vivo and ex vivo measurements. Minim. Invasive Ther. Allied Technol. 10, 323�. doi: 10.1080/136457001753337627

    Beasley, R. A., and Howe, R. D. (2002). “Tactile tracking of arteries in robotic surgery” in 2002 IEEE International Conference on Robotics and Automation, Vols I-Iv, Proceedings May 11-15, 2002.

    Bell, A. K., and Cao, C. G. L. (2007). �ts of artificial force feedback in laparoscopic surgery training simulators” in 2007 Ieee International Conference on Systems, Man and Cybernetics, Vols 1𠄸 October 07-10, 2007 564�.

    Berkelman, P. J., Whitcomb, L. L., Taylor, R. H., and Jensen, P. (2003). A miniature microsurgical instrument tip force sensor for enhanced force feedback during robot-assisted manipulation. IEEE Trans. Robot. Autom. 19, 917�. doi: 10.1109/tra.2003.817526

    Bicchi, A., Canepa, G., de rossi, D., Iacconi, P., and Scilingo, E. P. (1996). 𠇊 sensor-based minimally invasive surgery tool for detecting tissue elastic properties” in Proceedings of IEEE International Conference on Robotics and Automation April 22-28, 1996 Minneapolis, MN, USA, USA: IEEE.

    Bonakdar, A., and Narayanan, N. (2010). Determination of tissue properties using microfabricated piezoelectric tactile sensor during minimally invasive surgery. Sens. Rev. 30, 233�. doi: 10.1108/02602281011051425

    Callaghan, D. J., and McGrath, M. M. (2007). 𠇊 Force measurement evaluation tool for telerobotic cutting applications: development of an effective characterization platform,” in Proceedings of World Academy of Science, Engineering and Technology, Vol 25, ed. C. Ardil, 274�.

    Cao, L., Kotagiri, R., Sun, F., Li, H., Huang, W., Aye, Z. M. M., et al. (2016). �icient spatio-temporal tactile object recognition with randomized tiling convolutional networks in a hierarchical fusion strategy” in Thirtieth Aaai Conference on Artificial Intelligence Febraury 12-17, 2016 3337�.

    Chanthasopeephan, T., Desai, J. P., and Lau, A. C. W. (2003). Measuring forces in liver cutting: new equipment and experimental results. Anne. Biomed. Eng. 31, 1372�. doi: 10.1114/1.1624601

    Chuang, C. H., Li, T. H., Chou, I. C., and Teng, Y. J. (2015). “Piezoelectric tactile sensor for submucosal tumor hardness detection in endoscopy” in 2015 Transducers � 18th International Conference on Solid-State Sensors, Actuators and Microsystems June 21-25, 2015.

    Dargahi, J. (2002). An endoscopic and robotic tooth-like compliance and roughness tactile sensor. J. Mech. Des. 124, 576�. doi: 10.1115/1.1471531

    Dargahi, J., and Najarian, S. (2004). Human tactile perception as a standard for artificial tactile sensing𠅊 review. Int. J. Méd. Robot. 1, 23�. doi: 10.1002/rcs.3

    Dargahi, J., and Payandeh, S. (1998). “Surface texture measurement by combining signals from two sensing elements of a piezoelectric tactile sensor” in Sensor fusion: Architectures, algorithms, and applications ii. éd. B. V. Dasarathy (Orlando, FL, USA). 122�.

    Eklund, A., Bergh, A., and Lindahl, O. A. (1999). A catheter tactile sensor for measuring hardness of soft tissue: measurement in a silicone model and in an in vitro human prostate model. Méd. Biol. Eng. Calcul. 37, 618�. doi: 10.1007/bf02513357

    Eltaib, M., and Hewit, J. R. (2000). A tactile sensor for minimal access surgery applications. IFAC Proc. Vol. 33, 505�. doi: 10.1016/S1474-6670(17)39194-2

    Eltaib, M. E. H., and Hewit, J. R. (2003). Tactile sensing technology for minimal access surgery ‐ a review. Mechatronics 13, 1163�. doi: 10.1016/S0957-4158(03)00048-5

    Fagogenis, G., Mencattelli, M., Machaidze, Z., Rosa, B., Price, K., Wu, F., et al. (2019). Autonomous robotic intracardiac catheter navigation using haptic vision. Sci. Robot. 4:eaaw1977. doi: 10.1126/scirobotics.aaw1977

    Fazal, I., and Karsiti, M. N. (2009). “Needle insertion simulation forces v/s experimental forces for haptic feedback device” in 2009 IEEE Student Conference on Research and Development: Scored 2009, Proceedings November 16-18, 2009.

    Fischer, G. S., Akinbiyi, T., Saha, S., Zand, J., Talamini, M., Marohn, M., et al. (2006). “Ischemia and force sensing surgical instruments for augmenting available surgeon information” in 2006 1st IEEE Ras-Embs International Conference on Biomedical Robotics and Biomechatronics, Vols 1𠄳 Febraury 20-22, 2006 989.

    Guo, J., Guo, S., Wang, P., Wei, W., and Wang, Y. (2013). 𠇊 Novel type of catheter sidewall tactile sensor array for vascular interventional surgery” in 2013 Icme International Conference on Complex Medical Engineering May 25-28, 2013.

    Guo, J., Guo, S., Xiao, N., Ma, X., Yoshida, S., Tamiya, T., et al. (2012). A novel robotic catheter system with force and visual feedback for vascular interventional surgery. Int. J. Mech. Autom. 2, 15�. doi: 10.1504/IJMA.2012.046583

    Guthar, G. S., and Salisbury, J. K. (2000). “The IntuitiveTM telesurgery system: overview and application” in Proceedings-IEEE International Conference on Robotics and Automation 1 April 24-28, 2000 618�.

    Gwilliam, J. C., Mahvash, M., Vagvolgyi, B., Vacharat, A., Yuh, D. D., Okamura, A. M., et al. (2009). �ts of haptic and graphical force feedback on teleoperated palpation” in Icra: 2009 IEEE International Conference on Robotics and Automation, Vols 1𠄷 May 12-17, 2009 3315.

    He, X., Handa, J., Gehlbach, P., Taylor, R., and Iordachita, I. (2014). A Submillimetric 3-DOF force sensing instrument with integrated fiber Bragg grating for retinal microsurgery. IEEE Trans. Biomed. Eng. 61, 522�. doi: 10.1109/tbme.2013.2283501

    Hosseini, S. M., Kashani, S. M. T., Najarian, S., Panahi, F., Naeini, S. M. M., and Mojra, A. (2010). A medical tactile sensing instrument for detecting embedded objects, with specific application for breast examination. Int. J. Méd. Robot. 6, 73�. doi: 10.1002/rcs.291

    Hosseini, M., Najarian, S., Motaghinasab, S., and Dargahi, J. (2006). Detection of tumours using a computational tactile sensing approach. Int. J. Méd. Robot. 2, 333�. doi: 10.1002/rcs.112

    Ju, F., Wang, Y., Zhang, Z., Wang, Y., Yun, Y., Guo, H., et al. (2019). A miniature piezoelectric spiral tactile sensor for tissue hardness palpation with catheter robot in minimally invasive surgery. Smart Mater. Struct. 28:025033. doi: 10.1088/1361-665X/aafc8d

    Ju, F., Yun, Y., Zhang, Z., Wang, Y., Wang, Y., Zhang, L., et al. (2018). A variable-impedance piezoelectric tactile sensor with tunable sensing performance for tissue hardness sensing in robotic tumor palpation. Smart Mater. Struct. 27:115039. doi: 10.1088/1361-665X/aae54f

    Kalantari, M., Ramezanifard, M., Ahmadi, R., Dargahi, J., and Koevecses, J. (2011). A piezoresistive tactile sensor for tissue characterization during catheter-based cardiac surgery. Int. J. Méd. Robot. 7, 431�. doi: 10.1002/rcs.413

    Kim, U., Kim, Y. B., So, J., Seok, D. -Y., and Choi, H. R. (2018). Sensorized surgical forceps for robotic-assisted minimally invasive surgery. IEEE Trans. Ind. Electron. 65, 9604�. doi: 10.1109/tie.2018.2821626

    Kim, U., Lee, D. -H., Yoon, W. J., Hannaford, B., and Choi, H. R. (2015). Force sensor integrated surgical forceps for minimally invasive robotic surgery. IEEE Trans. Robot. 31, 1214�. doi: 10.1109/tro.2015.2473515

    Kitagawa, M., Dokko, D., Okamura, A. M., and Yuh, D. D. (2005). Effect of sensory substitution on suture-manipulation forces for robotic surgical systems. J. Thorac. Cardiovasc. Surg. 129, 151�. doi: 10.1016/j.jtcvs.2004.05.029

    Konstantinova, J., Jiang, A., Althoefer, K., Dasgupta, P., and Nanayakkara, T. (2014). Implementation of tactile sensing for palpation in robot-assisted minimally invasive surgery: a review. IEEE Sens. J. 14, 2490�. doi: 10.1109/jsen.2014.2325794

    Lederman, S. J., and Klatzky, R. L. (1999). Sensing and displaying spatially distributed fingertip forces in haptic interfaces for teleoperator and virtual environment systems. Presence Teleoperat. Virt. Environ. 8, 86�. doi: 10.1162/105474699566062

    Lee, D. -H., Kim, U., Gulrez, T., Yoon, W. J., Hannaford, B., and Choi, H. R. (2016). A laparoscopic grasping tool with force sensing capability. IEEE-Asme Trans. Méca. 21, 130�. doi: 10.1109/tmech.2015.2442591

    Lee, J. -H., and Won, C. -H. (2013). The tactile sensation imaging system for embedded lesion characterization. IEEE J. Biomed. Health Inform. 17, 452�. doi: 10.1109/jbhi.2013.2245142

    Li, K., Pan, B., Zhan, J., Gao, W., Fu, Y., and Wang, S. (2015). Design and performance evaluation of a 3-axis force sensor for MIS palpation. Sens. Rev. 35, 219�. doi: 10.1108/sr-04-2014-632

    Li, T., Shi, C., and Ren, H. (2018). A high-sensitivity tactile sensor array based on fiber bragg grating sensing for tissue palpation in minimally invasive surgery. IEEE-Asme Trans. Méca. 23, 2306�. doi: 10.1109/tmech.2018.2856897

    Liu, H., Greco, J., Song, X., Bimbo, J., Seneviratne, L., and Althoefer, K. (2012). “Tactile image based contact shape recognition using neural network” in 2012 IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems (MFI) September 13-15, 2012 138�.

    Liu, H., Puangmali, P., Zbyszewski, D., Elhage, O., Dasgupta, P., Dai, J. S., et al. (2010). An indentation depth-force sensing wheeled probe for abnormality identification during minimally invasive surgery. Proc. Inst. Méca. Eng. H 224, 751�. doi: 10.1243/09544119jeim682

    Liu, H., Wu, Y., Sun, F., and Guo, D. (2017). Recent progress on tactile object recognition. Int. J. Adv. Robot. Syst. 14, 1�. doi: 10.1177/1729881417717056

    Luo, S., Bimbo, J., Dahiya, R., and Liu, H. (2017). Robotic tactile perception of object properties: a review. Mechatronics 48, 54�. doi: 10.1016/j.mechatronics.2017.11.002

    Mahvash, M., Gwilliam, J., Agarwal, R., Vagvolgyi, B., Su, L. -M., Yuh, D. D., et al. (2008). 𠇏orce-feedback surgical teleoperator: controller design and palpation experiments.” in: Symposium on Haptics Interfaces for Virtual Environment and Teleoperator Systems 2008, Proceedings. eds. J. Weisenberger, A. Okamura and K. MacLean.

    Marohn, M. R., and Hanly, E. J. (2004). Twenty-first century surgery using twenty-first century technology: surgical robotics. Cour. Surg. 61, 466�. doi: 10.1016/j.cursur.2004.03.009

    Mohareri, O., Schneider, C., and Salcudean, S. (2014). 𠇋imanual telerobotic surgery with asymmetric force feedback: A daVinci (R) surgical system implementation” in 2014 Ieee/Rsj International Conference on Intelligent Robots and Systems September 14-18, 2014 4272�.

    Morimoto, A. K., Foral, R. D., Kuhlman, J. L., Zucker, K. A., Curet, M. J., Bocklage, T., et al. (1997). Force sensor for laparoscopic babcock. Étalon. Health Technol. Informer. 39, 354�.

    Munawar, A., and Fischer, G. (2016). “Towards a haptic feedback framework for multi-DOF robotic laparoscopic surgery platforms” in 2016 IEEE/Rsj International Conference on Intelligent Robots and Systems October 9-14, 2016.

    Najarian, S., Dargahi, J., and Zheng, X. Z. (2006). A novel method in measuring the stiffness of sensed objects with applications for biomedical robotic systems. Int. J. Méd. Robot. 2, 84�. doi: 10.1002/rcs.75

    Narayanan, N. B., Bonakdar, A., Dargahi, J., Packirisamy, M., and Bhat, R. (2006). Design and analysis of a micromachined piezoelectric sensor for measuring the viscoelastic properties of tissues in minimally invasive surgery. Smart Mater. Struct. 15, 1684�. doi: 10.1088/0964-1726/15/6/021

    Okamura, A. M. (2009). Haptic feedback in robot-assisted minimally invasive surgery. Cour. Avis. Urol. 19, 102�. doi: 10.1097/MOU.0b013e32831a478c

    Pacchierotti, C., Prattichizzo, D., and Kuchenbecker, K. J. (2016). Cutaneous feedback of fingertip deformation and vibration for palpation in robotic surgery. IEEE Trans. Biomed. Eng. 63, 278�. doi: 10.1109/tbme.2015.2455932

    Park, M., Bok, B. -G., Ahn, J. -H., and Kim, M. -S. (2018). Recent advances in tactile sensing technology. Micromachines 9:321. doi: 10.3390/mi9070321

    Perri, M. T., Trejos, A. L., Naish, M. D., Patel, R. V., and Malthaner, R. A. (2010). New tactile sensing system for minimally invasive surgical tumour localization. Int. J. Méd. Robot. 6, 211�. doi: 10.1002/rcs.308

    Pitakwatchara, P., Warisawa, S. I., and Mitsuishi, M. (2006). 𠇊nalysis of the surgery task for the force feedback amplification in the minimally invasive surgical system” in Conference proceedings of the Annual International Conference of the IEEE Engineering in Medicine and Biology Society August 30-September 3, 2006 829�.

    Prasad, S. K., Kitagawa, M., Fischer, G. S., Zand, J., Talamini, M. A., Taylor, R. H., et al. (2003). 𠇊 modular 2-DOF force-sensing instrument for laparoscopic surgery,” in Medical Image Computing and Computer-Assisted Intervention-Miccai 2003, Pt 1. eds. R. E. Ellis and T. M. Peters, 279�.

    Puangmali, P., Althoefer, K., Seneviratne, L. D., Murphy, D., and Dasgupta, P. (2008). State-of-the-art in force and tactile sensing for minimally invasive surgery. IEEE Sensors J. 8, 371�. doi: 10.1109/jsen.2008.917481

    Reiley, C. E., Akinbiyi, T., Burschka, D., Chang, D. C., Okamura, A. M., and Yuh, D. D. (2008). Effects of visual force feedback on robot-assisted surgical task performance. J. Thorac. Cardiovasc. Surg. 135, 196�. doi: 10.1016/j.jtcvs.2007.08.043

    Richards, C., Rosen, J., Hannaford, B., Pellegrini, C., and Sinanan, M. (2000). Skills evaluation in minimally invasive surgery using force/torque signatures. Surg. Endos. 14, 791�. doi: 10.1007/s004640000230

    Roesthuis, R. J., Janssen, S., and Misra, S. (2013). “On using an array of fiber bragg grating sensors for closed-loop control of flexible minimally invasive surgical instruments” in 2013 IEEE/Rsj International Conference on Intelligent Robots and Systems. éd. N. Amato. November 3-7, 2013 2545�.

    Rosen, J., Solazzo, M., Hannaford, B., and Sinanan, M. (2001). “Objective laparoscopic skills assessments of surgical residents using hidden Markov models based on haptic information and tool/tissue interactions” in Medicine meets virtual reality 2001: Outer space, inner space, virtual space. eds. J. D. Westwood, H. M. Hoffman, G. T. Mogel, D. Stredney, and R. A. Robb (Amsterdam, BG: IOS Press). 417�.

    Saccomandi, P., Schena, E., Oddo, C. M., Zollo, L., Silvestri, S., and Guglielmelli, E. (2014). Microfabricated tactile sensors for biomedical applications: a review. Biosensors 4, 422�. doi: 10.3390/bios4040422

    Sadeghi-Goughari, M., Mojra, A., and Sadeghi, S. (2016). Parameter estimation of brain tumors using intraoperative thermal imaging based on artificial tactile sensing in conjunction with artificial neural network. J. Phys. D. Appl. Phys. 49:075404. doi: 10.1088/0022-3727/49/7/075404

    Schostek, S., Ho, C. -N., Kalanovic, D., and Schurr, M. O. (2006). Artificial tactile sensing in minimally invasive surgery ‐ a new technical approach. Minim. Invasive Ther. Allied Technol. 15, 296�. doi: 10.1080/13645700600836299

    Schostek, S., Schurr, M. O., and Buess, G. F. (2009). Review on aspects of artificial tactile feedback in laparoscopic surgery. Méd. Eng. Phys. 31, 887�. doi: 10.1016/j.medengphy.2009.06.003

    Song, H. -S., Kim, H., Jeong, J., and Lee, J. -J. (2011). �velopment of FBG sensor system for force-feedback in minimally invasive robotic surgery” in 2011 Fifth International Conference on Sensing Technology November 28-December 1, 2011.

    Song, H. -S., Kim, K. -Y., and Lee, J. -J. (2009). �velopment of the dexterous manipulator and the force sensor for minimally invasive surgery” in Proceedings of the Fourth International Conference on Autonomous Robots and Agents Febraury 10-12, 2009.

    Talasaz, A., and Patel, R. V. (2013). Integration of force reflection with tactile sensing for minimally invasive robotics-assisted tumor localization. IEEE Trans. Haptics. 6, 217�. doi: 10.1109/ToH.2012.64

    Talasaz, A., Trejos, A. L., and Patel, R. V. (2012). �t of force feedback on performance of robotics-assisted suturing.” in 2012 4th IEEE Ras and Embs International Conference on Biomedical Robotics and Biomechatronics. eds. J. P. Desai, L. P. S. Jay and L. Zollo. June 24-27, 2012 823�.

    Talasaz, A., Trejos, A. L., and Patel, R. V. (2017). The role of direct and visual force feedback in suturing using a 7-DOF dual-arm Teleoperated system. IEEE Trans. Haptics. 10, 276�. doi: 10.1109/toh.2016.2616874

    Tholey, G., Desai, J. P., and Castellanos, A. E. (2005). Force feedback plays a significant role in minimally invasive surgery ‐ results and analysis. Anne. Surg. 241, 102�. doi: 10.1097/01.sla.0000149301.60553.1e

    Tiwana, M. I., Redmond, S. J., and Lovell, N. H. (2012). A review of tactile sensing technologies with applications in biomedical engineering. Sens. Actuat. Phys. 179, 17�. doi: 10.1016/j.sna.2012.02.051

    Trejos, A. L., Jayender, J., Perri, M. T., Naish, M. D., Patel, R. V., and Malthaner, R. A. (2009). Robot-assisted tactile sensing for minimally invasive tumor localization. Int. J. Robot. Rés. 28, 1118�. doi: 10.1177/0278364909101136

    Uranues, S., Maechler, H., Bergmann, P., Huber, S., Hoebarth, G., Pfeifer, J., et al. (2002). Early experience with telemanipulative abdominal and cardiac surgery with the Zeus™ robotic system. Eur. Surg. 34, 190�. doi: 10.1046/j.1563-2563.2002.t01-1-02049.x

    Valdastri, P., Harada, K., Menciassi, A., Beccai, L., Stefanini, C., Fujie, M., et al. (2006). Integration of a miniaturised triaxial force sensor in a minimally invasive surgical tool. IEEE Trans. Biomed. Eng. 53, 2397�. doi: 10.1109/tbme.2006.883618

    Verdura, J., Carroll, M. E., Beane, R., Ek, S., and Callery, M. P. (2000). Systems methods and instruments for minimally invasive surgery. United States patent application 6165184.

    Wagner, C. R., and Howe, R. D. (2007). Force feedback benefit depends on experience in multiple degree of freedom robotic surgery task. IEEE Trans. Robot. 23, 1235�. doi: 10.1109/tro.2007.904891

    Wang, X., Zhang, H., Dong, L., Han, X., Du, W., Zhai, J., et al. (2016). Self-powered high-resolution and pressure-sensitive triboelectric sensor matrix for real-time tactile mapping. Av. Mater. 28, 2896�. doi: 10.1002/adma.201503407

    Westebring-van der Putten, E. P., Goossens, R. H. M., Jakimowicz, J. J., and Dankelman, J. (2008). Haptics in minimally invasive surgery ‐ a review. Minim. Invasive Ther. Allied Technol. 17, 3�. doi: 10.1080/13645700701820242

    Xie, H., Liu, H., Luo, S., Seneviratne, L. D., and Althoefer, K. (2013). 𠇏iber optics tactile array probe for tissue palpation during minimally invasive surgery” in 2013 IEEE/Rsj International Conference on Intelligent Robots and Systems. éd. N. Amato. November 3-7, 2013 2539�.

    Yip, M. C., Yuen, S. G., and Howe, R. D. (2010). A robust uniaxial force sensor for minimally invasive surgery. I.E.E.E. Trans. Biomed. Eng. 57, 1008�. doi: 10.1109/tbme.2009.2039570

    Yuan, W., Zhu, C., Owens, A., Srinivasan, M., and Adelson, E. (2017). “Shape-independent hardness estimation using deep learning and a GelSight tactile sensor” in 2017 IEEE International Conference on Robotics and Automation (ICRA) May 29-June 3, 2017 Singapore, Singapore: IEEE.

    Zapata-Impata, B. S., Gil, P., and Torres, F. (2019). Learning spatio temporal tactile features with a ConvLSTM for the direction of slip detection. Capteurs 19:523. doi: 10.3390/s19030523

    Zemiti, N., Ortmaier, T., Vitrani, M. A., and Morel, G. (2006). 𠇊 force controlled laparoscopic surgical robot without distal force sensing” in Experimental robotics ix. eds. M. H. Ang and O. Khatib (Heidelberger, Berlin: Springer), 153.

    Zhao, Z., Voros, S., Weng, Y., Chang, F., and Li, R. (2017). Tracking-by-detection of surgical instruments in minimally invasive surgery via the convolutional neural network deep learning-based method. Calcul. Aider. Surg. 22, 26�. doi: 10.1080/24699322.2017.1378777

    Keywords: tactile sensors, tactile perception, tactile images, minimally invasive surgery, robotic surgery, artificial intelligence

    Citation: Huang C, Wang Q, Zhao M, Chen C, Pan S and Yuan M (2020) Tactile Perception Technologies and Their Applications in Minimally Invasive Surgery: A Review. Devant. Physiol. 11:611596. doi: 10.3389/fphys.2020.611596

    Received: 29 September 2020 Accepted: 16 November 2020
    Published: 23 December 2020.

    Xin Gao, King Abdullah University of Science and Technology, Saudi Arabia

    Yan Wang, Jilin University, China
    Renmin Han, Shandong University, Finland
    Jiayang Guo, University of Cincinnati, United States

    Copyright © 2020 Huang, Wang, Zhao, Chen, Pan and Yuan. This is an open-access article distributed under the terms of the Creative Commons Attribution License (CC BY). The use, distribution or reproduction in other forums is permitted, provided the original author(s) and the copyright owner(s) are credited and that the original publication in this journal is cited, in accordance with accepted academic practice. No use, distribution or reproduction is permitted which does not comply with these terms.