{"id":8714,"date":"2024-07-17T16:13:48","date_gmt":"2024-07-17T14:13:48","guid":{"rendered":"https:\/\/niryo.com\/?p=8714"},"modified":"2024-07-17T16:16:50","modified_gmt":"2024-07-17T14:16:50","slug":"selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow","status":"publish","type":"post","link":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/","title":{"rendered":"S\u00e9lection visuelle avec intelligence artificielle \u00e0 l&rsquo;aide de TensorFlow"},"content":{"rendered":"<h2 class=\"wp-block-heading\">Est-il possible pour Ned2 de reconna\u00eetre plusieurs objets sur son espace de travail ?<\/h2>\n<p class=\"gt-block\">Oui d\u00e9finitivement! Gr\u00e2ce \u00e0\u00a0<strong>Tensorflow<\/strong>\u00a0(outil d&rsquo;apprentissage automatique open source d\u00e9velopp\u00e9 par Google), la reconnaissance de plusieurs objets est devenue possible.<\/p>\n<p class=\"gt-block\"><strong>Vous poss\u00e9dez un Ned2 et \u00eates curieux de tester cette fonctionnalit\u00e9 ?<\/strong><strong><br \/>\n<\/strong>C&rsquo;est tr\u00e8s simple, vous avez simplement besoin de votre Ned2, du kit de vision et de son espace de travail, de la grande pince et de plusieurs objets. Nous utiliserons du chocolat parce que nous en avons envie, je veux dire, qui n&rsquo;en a pas envie ?<\/p>\n<p class=\"gt-block\"><strong>R\u00e9sum\u00e9\u202f:<\/strong><strong><br \/>\n<\/strong><strong><br \/>\n<\/strong><strong>1. Comment am\u00e9nager\/pr\u00e9parer mon espace de travail ?<\/strong><strong><br \/>\n<\/strong><strong>2. Comment lancer l&rsquo;application sous Windows ?<\/strong><strong><br \/>\n<\/strong><strong>3. Comment lancer l&rsquo;application sous Linux ?<\/strong><\/p>\n<p class=\"gt-block\"><strong>4.Le lancement est termin\u00e9, mais il y a quelque chose qui ne va pas<\/strong><\/p>\n<p class=\"gt-block\"><strong>5.Le processus\u00a0:<\/strong><\/p>\n<ul class=\"wp-block-list\">\n<li><strong>Comment cr\u00e9er ma base de donn\u00e9es ? (Reconnaissance d&rsquo;objets)<\/strong><\/li>\n<li><strong>Comment suivre les objets ?<\/strong><\/li>\n<li><strong>Afficher l&rsquo;heure!<\/strong><strong><br \/>\n<\/strong><\/li>\n<\/ul>\n<h2 class=\"wp-block-heading\">Comment param\u00e9trer\/pr\u00e9parer mon mat\u00e9riel et mes logiciels ?<\/h2>\n<h4 class=\"wp-block-heading\">Mat\u00e9riel<\/h4>\n<p class=\"gt-block\">La premi\u00e8re chose est que l&rsquo;espace de travail doit \u00eatre calibr\u00e9 avec\u00a0<strong>Studio Niryo<\/strong>. De plus, le nom de l&rsquo;espace de travail doit correspondre \u00e0 celui que vous avez renseign\u00e9 dans le programme du robot (par d\u00e9faut, le nom est \u00ab\u00a0default_workspace\u00a0\u00bb).<\/p>\n<p>Si votre espace de travail n&rsquo;est pas devant le robot, vous devrez changer la variable \u00ab observation_pose \u00bb pour que le robot puisse voir les quatre rep\u00e8res de l&rsquo;espace de travail.<\/p>\n<h4 class=\"wp-block-heading\">Logiciels<\/h4>\n<p class=\"gt-block\">Tout d\u2019abord, installez PyNiryo. Ensuite, t\u00e9l\u00e9chargez l&rsquo;application\u00a0<a href=\"https:\/\/github.com\/NiryoRobotics\/ned_applications\/tree\/master\/examples\/Vision_Pick_Artificial_Intelligence_Tensorflow\" target=\"_blank\" rel=\"noreferrer noopener\">code source<\/a>\u00a0sur notre Github. Supposons que vous clonez le r\u00e9f\u00e9rentiel dans un dossier nomm\u00e9 \u00ab tensorflow_ned \u00bb. Vous pouvez le cloner avec la commande\u00a0:<\/p>\n<p class=\"gt-block\">git clone\u00a0<a href=\"https:\/\/github.com\/NiryoRobotics\/ned_applications.git\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/github.com\/NiryoRobotics\/ned_applications.git<\/a><\/p>\n<p class=\"gt-block\">Ensuite, ouvrez le\u00a0<strong>robot_gui.py<\/strong>\u00a0fichier et modifiez le\u00a0<strong>adresse_ip_robot<\/strong>\u00a0et les terres parsem\u00e9es de\u00a0<strong>espace de travail<\/strong>\u00a0variables par l&rsquo;adresse IP priv\u00e9e actuelle et le nom de l&rsquo;espace de travail de votre robot\u00a0:<\/p>\n<p>robot_ip_address = \u00ab Adresse IP de votre robot \u00bb<\/p>\n<p>workspace = \u00ab espace de travail de votre robot \u00bb<\/p>\n<p class=\"gt-block\">Si vous utilisez le\u00a0<strong>Pompe \u00e0 vide<\/strong>, changez \u00e9galement le\u00a0<strong>z_offset<\/strong>\u00a0variable, qui est le d\u00e9calage entre l&rsquo;espace de travail et la hauteur cible. Cela permettra \u00e0 la Pompe \u00e0 Vide d&rsquo;atteindre les pions afin de les attraper. \u00c9tant donn\u00e9 que la pompe \u00e0 vide est plus courte que la grande pince, vous pouvez modifier le z_offset en une petite valeur n\u00e9gative, comme\u00a0:<\/p>\n<p>z_offset = -0.01<\/p>\n<h2 class=\"gt-block\"><strong>Comment lancer l&rsquo;application sous Windows ?<\/strong><\/h2>\n<p class=\"gt-block\">Commencez par installer\u00a0<a href=\"https:\/\/docs.anaconda.com\/anaconda\/install\/\" target=\"_blank\" rel=\"noreferrer noopener\"><strong>Anaconda<\/strong><\/a>\u00a0pour utiliser le script d&rsquo;installation de l&rsquo;application. Anaconda doit \u00eatre install\u00e9 sur son emplacement par d\u00e9faut (C:Usersanaconda3).<\/p>\n<p>Vous pouvez opter pour l\u2019installation simplifi\u00e9e ou l\u2019installation manuelle.<\/p>\n<p class=\"gt-block\">Dans le premier cas, il suffit d&rsquo;aller dans le dossier de l&rsquo;application, de lancer setup.bat pour installer toutes les librairies utilis\u00e9es, d&rsquo;accepter l&rsquo;installation de ces librairies et de lancer run.bat.<br \/>\nLe programme devrait se lancer. Si ce n&rsquo;est pas le cas, lancez une installation manuelle.<\/p>\n<ol class=\"wp-block-list\">\n<li>Ouvrez un terminal \u00e0 partir d&rsquo;Anaconda Navigator (invite CMD.exe, \u00ab\u00a0Lancer\u00a0\u00bb). Vous devriez voir \u00ab (base) \u00bb affich\u00e9 \u00e0 gauche de votre terminal.<\/li>\n<li>Mettre \u00e0 jour Anaconda\u00a0:<br \/>\nconda update -n base -c valeurs par d\u00e9faut conda<\/li>\n<li>Cr\u00e9ez un environnement TensorFlow\u00a02 avec Python\u00a03.6\u00a0:<br \/>\nconda create -n tf_ned tensorflow=2 python=3.6<\/li>\n<li>Activez l&rsquo;environnement TensorFlow\u00a0:<br \/>\nconda activer tf_ned<\/li>\n<li>Vous devriez maintenant voir \u00ab (tf_ned) \u00bb au lieu de \u00ab (base) \u00bb \u00e0 gauche de votre terminal, mettez \u00e0 jour TensorFlow\u00a0:<br \/>\ninstallation de pip -mise \u00e0 niveau de tensorflow<\/li>\n<li>Installez les biblioth\u00e8ques opencv, pygame et pygame-menu\u00a0:<br \/>\ninstaller opencv-python pygame pygame-menu<\/li>\n<li>Acc\u00e9dez au dossier de candidature\u00a0:<br \/>\ncd Bureau\/tensorflow_ned<\/li>\n<li>Lancer le programme:<br \/>\npython robot_gui.py<\/li>\n<li>Lancement:<br \/>\nrun.bat<\/li>\n<li>Ou dans le r\u00e9pertoire de l&rsquo;application :<br \/>\nconda activer tf_ned python robot_gui.py<\/li>\n<\/ol>\n<h2 class=\"gt-block\"><strong>Comment lancer l&rsquo;application sous Linux ?<\/strong><\/h2>\n<p class=\"gt-block\">Commencez par installer\u00a0<a href=\"https:\/\/docs.anaconda.com\/anaconda\/install\/\" target=\"_blank\" rel=\"noreferrer noopener\">Anaconda<\/a>\u00a0pour utiliser le script d&rsquo;installation de l&rsquo;application.<\/p>\n<ol class=\"wp-block-list\">\n<li>Ouvrez un terminal. Vous devriez trouver \u00ab (base) \u00bb affich\u00e9 \u00e0 gauche de votre nom d\u2019utilisateur.<\/li>\n<li>Mettre \u00e0 jour Anaconda\u00a0:<br \/>\nconda update -n base -c valeurs par d\u00e9faut conda<\/li>\n<li>Cr\u00e9ez un environnement TensorFlow\u00a02 avec Python\u00a03.6\u00a0:<br \/>\nconda create -n tf_ned tensorflow=2 python=3.6<\/li>\n<li>Activez l&rsquo;environnement TensorFlow\u00a0:<br \/>\nconda activer tf_ned<\/li>\n<li>Vous devriez maintenant voir \u00ab (tf_ned) \u00bb au lieu de \u00ab (base) \u00bb \u00e0 gauche de votre terminal, mettez \u00e0 jour TensorFlow\u00a0:<br \/>\ninstallation de pip -mise \u00e0 niveau de tensorflow<\/li>\n<li>Installez les biblioth\u00e8ques opencv, pygame et pygame-menu\u00a0:<br \/>\ninstaller opencv-python pygame pygame-menu<\/li>\n<li>Acc\u00e9dez au dossier de l&rsquo;application\u00a0:<br \/>\ncd tensorflow_ned<\/li>\n<li>Lancer le programme:<br \/>\npython robot_gui.py<\/li>\n<li>Entrez la commande:<br \/>\nconda activer tf_ned python3 robot_gui.py<\/li>\n<\/ol>\n<h2 class=\"wp-block-heading\">Le lancement est termin\u00e9, mais il y a quelque chose qui ne va pas dans le processus.<\/h2>\n<p>Assurez-vous que Ned2 est capable de voir les quatre points de rep\u00e8re des espaces de travail depuis sa position d&rsquo;observation, sinon il passera automatiquement en mode apprentissage et l&rsquo;interface graphique sera rouge.<\/p>\n<p>Afin de rendre l&rsquo;interface graphique verte, d\u00e9placez la cam\u00e9ra pour que le robot puisse voir les quatre points de rep\u00e8re.<\/p>\n<p class=\"gt-block\">Ensuite, confirmez simplement la position souhait\u00e9e soit\u00a0<strong>en cliquant sur l&rsquo;\u00e9cran<\/strong>\u00a0ou\u00a0<strong>en appuyant sur entr\u00e9e<\/strong>\u00a0et il sera \u00e9galement enregistr\u00e9 pour la prochaine utilisation.<\/p>\n<p class=\"gt-block\"><strong>Le processus:<\/strong><strong><br \/>\n<\/strong><strong><br \/>\n<\/strong><strong>Comment cr\u00e9er ma base de donn\u00e9es ? (Reconnaissance d&rsquo;objets)<\/strong><\/p>\n<p class=\"gt-block\">Pr\u00eat \u00e0 prendre des photos ? Tu dois prendre\u00a0<strong>au moins 20 photos de chaque objet<\/strong>\u00a0pour obtenir de bons r\u00e9sultats. Essayez \u00e0 chaque fois de changer l&rsquo;angle et les conditions d&rsquo;\u00e9clairage<\/p>\n<p>Vous pourrez retrouver les photos que vous avez prises dans le dossier \u00ab data \u00bb, dans un dossier nomm\u00e9 avec le nom de l&rsquo;objet concern\u00e9.<\/p>\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/lh4.googleusercontent.com\/9ZqXYNKl8hBWkDY8bEZSi1XWI6-bM43pAJrXH61oyyfNTglUjEodQK8w232J4z8yzEDEbuTUYP9KtlZTCzmpjOArDMS0mdqp9UVUON_z-rLCv6XNs4VkAII9r4-8--jMR-RO_bl00vySMF8zIplFhcM\" alt=\"\" \/><\/figure>\n<p class=\"gt-block\"><strong>Comment suivre les objets ?<\/strong><\/p>\n<p class=\"gt-block\"><strong>Pr\u00e9nom<\/strong>, la prise de vue \u00ab take_workspace_img() \u00bb permet au robot d&rsquo;envoyer une image, de la recadrer et d&rsquo;ajuster la distorsion de l&rsquo;objectif.<\/p>\n<p class=\"gt-block\"><strong>Deuxi\u00e8mement<\/strong>, le calcul du masque \u00ab objs_mask() \u00bb utilise d\u2019une part le\u00a0<a href=\"https:\/\/opencv24-python-tutorials.readthedocs.io\/en\/stable\/py_tutorials\/py_imgproc\/py_colorspaces\/py_colorspaces.html\" target=\"_blank\" rel=\"noreferrer noopener\">cv2.cvtColor()<\/a>\u00a0pour modifier la colorim\u00e9trie de l&rsquo;image de RVB \u00e0 HLS, et d&rsquo;autre part il utilise\u00a0<a href=\"https:\/\/opencv24-python-tutorials.readthedocs.io\/en\/stable\/py_tutorials\/py_imgproc\/py_colorspaces\/py_colorspaces.html\" target=\"_blank\" rel=\"noreferrer noopener\">cv2.inRange()<\/a>\u00a0pour obtenir un masque qui d\u00e9limite approximativement les objets \u00e0 d\u00e9tecter. Afin de ne conserver que des objets ayant une surface suffisante, combinez les\u00a0<a href=\"https:\/\/opencv24-python-tutorials.readthedocs.io\/en\/latest\/py_tutorials\/py_imgproc\/py_morphological_ops\/py_morphological_ops.html\" target=\"_blank\" rel=\"noreferrer noopener\">cv2.dilate()<\/a>\u00a0et\u00a0\u00a0<a href=\"https:\/\/opencv24-python-tutorials.readthedocs.io\/en\/latest\/py_tutorials\/py_imgproc\/py_morphological_ops\/py_morphological_ops.html\" target=\"_blank\" rel=\"noreferrer noopener\">cv2.\u00e9rode()<\/a>\u00a0fonctions pour \u00e9liminer les impuret\u00e9s des images.<\/p>\n<p>Voici \u00e0 quoi devrait ressembler l&rsquo;image\u00a0:<\/p>\n<p class=\"gt-block\"><strong>Troisi\u00e8mement<\/strong>, l&rsquo;extraction des Objets \u00ab extract_objs() \u00bb utilise le\u00a0<a href=\"https:\/\/docs.opencv.org\/master\/d4\/d73\/tutorial_py_contours_begin.html\" target=\"_blank\" rel=\"noreferrer noopener\">cv2.findContours()<\/a>\u00a0pour obtenir la liste du contour des objets se trouvant sur le masque pr\u00e9alablement calcul\u00e9. Ensuite, il calcule le centre ainsi que l&rsquo;angle des objets \u00e0 l&rsquo;aide des fonctions de vision.<\/p>\n<p class=\"gt-block\"><strong>Finalement<\/strong>, nous obtenons un carr\u00e9 contenant le plus petit objet et utilisons ces informations pour extraire l&rsquo;objet de l&rsquo;image et le mettre verticalement (la m\u00eame orientation facilite la reconnaissance pour TensorFlow).<\/p>\n<h2 class=\"wp-block-heading\">Afficher l&rsquo;heure!<\/h2>\n<p>Lancez la formation soit en lan\u00e7ant training.py (python training.py) soit en cliquant sur le menu \u00ab Former \u00bb et le bouton \u00ab Formation compl\u00e8te \u00bb dans l&rsquo;interface graphique.<\/p>\n<p>Votre mod\u00e8le TensorFlow est cr\u00e9\u00e9\u00a0!<\/p>\n<p>Cr\u00e9ez ensuite une liste qui contient toutes les images du dossier \u00ab data \u00bb et une liste qui contient le label correspondant \u00e0 chaque image. Une fois la formation termin\u00e9e, testez les performances du mod\u00e8le et enregistrez-le dans le dossier \u00ab mod\u00e8le \u00bb.<\/p>\n<p>Si vous souhaitez lancer une formation plus rapide utilisez le bouton \u00ab Formation Lite \u00bb.<\/p>\n<p>A la fin, lancez robot.py (python robot.py) et entrez le nom de l&rsquo;objet que vous souhaitez que Ned2 r\u00e9cup\u00e8re, ou utilisez le menu \u00ab Play \u00bb de l&rsquo;interface graphique. Le programme utilise le mod\u00e8le pr\u00e9c\u00e9demment form\u00e9 pour reconna\u00eetre les diff\u00e9rents objets sur l&rsquo;espace de travail.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Est-il possible pour Ned2 de reconna\u00eetre plusieurs objets sur son espace de travail ? Oui d\u00e9finitivement! Gr\u00e2ce \u00e0\u00a0Tensorflow\u00a0(outil d&rsquo;apprentissage automatique open source d\u00e9velopp\u00e9 par Google), la reconnaissance de plusieurs objets est devenue possible. Vous poss\u00e9dez un Ned2 et \u00eates curieux de tester cette fonctionnalit\u00e9 ? C&rsquo;est tr\u00e8s simple, vous avez simplement besoin de votre Ned2, [&hellip;]<\/p>\n","protected":false},"author":146,"featured_media":8712,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"content-type":"","footnotes":""},"categories":[91],"tags":[],"class_list":["post-8714","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-intelligence-artificiel-et-robotique"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>S\u00e9lection visuelle avec intelligence artificielle \u00e0 l&#039;aide de TensorFlow - Niryo<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"S\u00e9lection visuelle avec intelligence artificielle \u00e0 l&#039;aide de TensorFlow - Niryo\" \/>\n<meta property=\"og:description\" content=\"Est-il possible pour Ned2 de reconna\u00eetre plusieurs objets sur son espace de travail ? Oui d\u00e9finitivement! Gr\u00e2ce \u00e0\u00a0Tensorflow\u00a0(outil d&rsquo;apprentissage automatique open source d\u00e9velopp\u00e9 par Google), la reconnaissance de plusieurs objets est devenue possible. Vous poss\u00e9dez un Ned2 et \u00eates curieux de tester cette fonctionnalit\u00e9 ? C&rsquo;est tr\u00e8s simple, vous avez simplement besoin de votre Ned2, [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/\" \/>\n<meta property=\"og:site_name\" content=\"Niryo\" \/>\n<meta property=\"article:published_time\" content=\"2024-07-17T14:13:48+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-07-17T14:16:50+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/niryo.com\/wp-content\/uploads\/2024\/07\/article-27.webp\" \/>\n\t<meta property=\"og:image:width\" content=\"768\" \/>\n\t<meta property=\"og:image:height\" content=\"449\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/webp\" \/>\n<meta name=\"author\" content=\"Delphine Guers\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"\u00c9crit par\" \/>\n\t<meta name=\"twitter:data1\" content=\"Delphine Guers\" \/>\n\t<meta name=\"twitter:label2\" content=\"Dur\u00e9e de lecture estim\u00e9e\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/\"},\"author\":{\"name\":\"Delphine Guers\",\"@id\":\"https:\/\/niryo.com\/fr\/#\/schema\/person\/b48100bef21979d55353ba5b8e0f61f7\"},\"headline\":\"S\u00e9lection visuelle avec intelligence artificielle \u00e0 l&rsquo;aide de TensorFlow\",\"datePublished\":\"2024-07-17T14:13:48+00:00\",\"dateModified\":\"2024-07-17T14:16:50+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/\"},\"wordCount\":1292,\"publisher\":{\"@id\":\"https:\/\/niryo.com\/fr\/#organization\"},\"image\":{\"@id\":\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/niryo.com\/wp-content\/uploads\/2024\/07\/article-27.webp\",\"articleSection\":[\"Intelligence artificiel et robotique\"],\"inLanguage\":\"fr-FR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/\",\"url\":\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/\",\"name\":\"S\u00e9lection visuelle avec intelligence artificielle \u00e0 l'aide de TensorFlow - Niryo\",\"isPartOf\":{\"@id\":\"https:\/\/niryo.com\/fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/niryo.com\/wp-content\/uploads\/2024\/07\/article-27.webp\",\"datePublished\":\"2024-07-17T14:13:48+00:00\",\"dateModified\":\"2024-07-17T14:16:50+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#primaryimage\",\"url\":\"https:\/\/niryo.com\/wp-content\/uploads\/2024\/07\/article-27.webp\",\"contentUrl\":\"https:\/\/niryo.com\/wp-content\/uploads\/2024\/07\/article-27.webp\",\"width\":768,\"height\":449},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/niryo.com\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"S\u00e9lection visuelle avec intelligence artificielle \u00e0 l&rsquo;aide de TensorFlow\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/niryo.com\/fr\/#website\",\"url\":\"https:\/\/niryo.com\/fr\/\",\"name\":\"Niryo\",\"description\":\"Empower your robotics potential - Collaborative robots\",\"publisher\":{\"@id\":\"https:\/\/niryo.com\/fr\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/niryo.com\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/niryo.com\/fr\/#organization\",\"name\":\"Niryo\",\"url\":\"https:\/\/niryo.com\/fr\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/niryo.com\/fr\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/niryo.com\/wp-content\/uploads\/2026\/02\/Favicon-Niryo.svg\",\"contentUrl\":\"https:\/\/niryo.com\/wp-content\/uploads\/2026\/02\/Favicon-Niryo.svg\",\"width\":512,\"height\":512,\"caption\":\"Niryo\"},\"image\":{\"@id\":\"https:\/\/niryo.com\/fr\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.linkedin.com\/company\/10970402\/admin\/feed\/posts\/\",\"https:\/\/www.tiktok.com\/@niryo_robotics\",\"https:\/\/www.instagram.com\/niryo_robotics\/\",\"https:\/\/discord.com\/invite\/EqpPYTf9FJ\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/niryo.com\/fr\/#\/schema\/person\/b48100bef21979d55353ba5b8e0f61f7\",\"name\":\"Delphine Guers\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/secure.gravatar.com\/avatar\/ff28995457c7fc605dbdf1bac643ad579fa4d74d0e5cf3ccb7eec9b70193888e?s=96&d=mm&r=g\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/ff28995457c7fc605dbdf1bac643ad579fa4d74d0e5cf3ccb7eec9b70193888e?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/ff28995457c7fc605dbdf1bac643ad579fa4d74d0e5cf3ccb7eec9b70193888e?s=96&d=mm&r=g\",\"caption\":\"Delphine Guers\"},\"url\":\"https:\/\/niryo.com\/fr\/author\/d-guersniryo-com\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"S\u00e9lection visuelle avec intelligence artificielle \u00e0 l'aide de TensorFlow - Niryo","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/","og_locale":"fr_FR","og_type":"article","og_title":"S\u00e9lection visuelle avec intelligence artificielle \u00e0 l'aide de TensorFlow - Niryo","og_description":"Est-il possible pour Ned2 de reconna\u00eetre plusieurs objets sur son espace de travail ? Oui d\u00e9finitivement! Gr\u00e2ce \u00e0\u00a0Tensorflow\u00a0(outil d&rsquo;apprentissage automatique open source d\u00e9velopp\u00e9 par Google), la reconnaissance de plusieurs objets est devenue possible. Vous poss\u00e9dez un Ned2 et \u00eates curieux de tester cette fonctionnalit\u00e9 ? C&rsquo;est tr\u00e8s simple, vous avez simplement besoin de votre Ned2, [&hellip;]","og_url":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/","og_site_name":"Niryo","article_published_time":"2024-07-17T14:13:48+00:00","article_modified_time":"2024-07-17T14:16:50+00:00","og_image":[{"width":768,"height":449,"url":"https:\/\/niryo.com\/wp-content\/uploads\/2024\/07\/article-27.webp","type":"image\/webp"}],"author":"Delphine Guers","twitter_card":"summary_large_image","twitter_misc":{"\u00c9crit par":"Delphine Guers","Dur\u00e9e de lecture estim\u00e9e":"6 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#article","isPartOf":{"@id":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/"},"author":{"name":"Delphine Guers","@id":"https:\/\/niryo.com\/fr\/#\/schema\/person\/b48100bef21979d55353ba5b8e0f61f7"},"headline":"S\u00e9lection visuelle avec intelligence artificielle \u00e0 l&rsquo;aide de TensorFlow","datePublished":"2024-07-17T14:13:48+00:00","dateModified":"2024-07-17T14:16:50+00:00","mainEntityOfPage":{"@id":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/"},"wordCount":1292,"publisher":{"@id":"https:\/\/niryo.com\/fr\/#organization"},"image":{"@id":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#primaryimage"},"thumbnailUrl":"https:\/\/niryo.com\/wp-content\/uploads\/2024\/07\/article-27.webp","articleSection":["Intelligence artificiel et robotique"],"inLanguage":"fr-FR"},{"@type":"WebPage","@id":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/","url":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/","name":"S\u00e9lection visuelle avec intelligence artificielle \u00e0 l'aide de TensorFlow - Niryo","isPartOf":{"@id":"https:\/\/niryo.com\/fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#primaryimage"},"image":{"@id":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#primaryimage"},"thumbnailUrl":"https:\/\/niryo.com\/wp-content\/uploads\/2024\/07\/article-27.webp","datePublished":"2024-07-17T14:13:48+00:00","dateModified":"2024-07-17T14:16:50+00:00","breadcrumb":{"@id":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#primaryimage","url":"https:\/\/niryo.com\/wp-content\/uploads\/2024\/07\/article-27.webp","contentUrl":"https:\/\/niryo.com\/wp-content\/uploads\/2024\/07\/article-27.webp","width":768,"height":449},{"@type":"BreadcrumbList","@id":"https:\/\/niryo.com\/fr\/selection-visuelle-avec-intelligence-artificielle-a-laide-de-tensorflow\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/niryo.com\/fr\/"},{"@type":"ListItem","position":2,"name":"S\u00e9lection visuelle avec intelligence artificielle \u00e0 l&rsquo;aide de TensorFlow"}]},{"@type":"WebSite","@id":"https:\/\/niryo.com\/fr\/#website","url":"https:\/\/niryo.com\/fr\/","name":"Niryo","description":"Empower your robotics potential - Collaborative robots","publisher":{"@id":"https:\/\/niryo.com\/fr\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/niryo.com\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/niryo.com\/fr\/#organization","name":"Niryo","url":"https:\/\/niryo.com\/fr\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/niryo.com\/fr\/#\/schema\/logo\/image\/","url":"https:\/\/niryo.com\/wp-content\/uploads\/2026\/02\/Favicon-Niryo.svg","contentUrl":"https:\/\/niryo.com\/wp-content\/uploads\/2026\/02\/Favicon-Niryo.svg","width":512,"height":512,"caption":"Niryo"},"image":{"@id":"https:\/\/niryo.com\/fr\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.linkedin.com\/company\/10970402\/admin\/feed\/posts\/","https:\/\/www.tiktok.com\/@niryo_robotics","https:\/\/www.instagram.com\/niryo_robotics\/","https:\/\/discord.com\/invite\/EqpPYTf9FJ"]},{"@type":"Person","@id":"https:\/\/niryo.com\/fr\/#\/schema\/person\/b48100bef21979d55353ba5b8e0f61f7","name":"Delphine Guers","image":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/secure.gravatar.com\/avatar\/ff28995457c7fc605dbdf1bac643ad579fa4d74d0e5cf3ccb7eec9b70193888e?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/ff28995457c7fc605dbdf1bac643ad579fa4d74d0e5cf3ccb7eec9b70193888e?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/ff28995457c7fc605dbdf1bac643ad579fa4d74d0e5cf3ccb7eec9b70193888e?s=96&d=mm&r=g","caption":"Delphine Guers"},"url":"https:\/\/niryo.com\/fr\/author\/d-guersniryo-com\/"}]}},"_links":{"self":[{"href":"https:\/\/niryo.com\/fr\/wp-json\/wp\/v2\/posts\/8714","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/niryo.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/niryo.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/niryo.com\/fr\/wp-json\/wp\/v2\/users\/146"}],"replies":[{"embeddable":true,"href":"https:\/\/niryo.com\/fr\/wp-json\/wp\/v2\/comments?post=8714"}],"version-history":[{"count":0,"href":"https:\/\/niryo.com\/fr\/wp-json\/wp\/v2\/posts\/8714\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/niryo.com\/fr\/wp-json\/wp\/v2\/media\/8712"}],"wp:attachment":[{"href":"https:\/\/niryo.com\/fr\/wp-json\/wp\/v2\/media?parent=8714"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/niryo.com\/fr\/wp-json\/wp\/v2\/categories?post=8714"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/niryo.com\/fr\/wp-json\/wp\/v2\/tags?post=8714"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}