Publications

Riches en information pertinente, nos publications vous permettent d’être à l’affût de l’actualité juridique qui vous touche, quel que soit votre secteur d’activité. Nos professionnels s’engagent à vous tenir au fait des dernières nouvelles juridiques, à travers l’analyse des derniers jugements, modifications et entrées en vigueur législatives et réglementaires.

Recherche avancée
  • L’intelligence artificielle au service de l’avocat : l’avocat-robot est-il à nos portes?

    Au cours des derniers mois, notre équipe du Laboratoire juridique sur l’intelligence artificielle (L3IA) a testé plusieurs solutions juridiques incorporant, de façon plus ou moins importante, l’IA. Selon les auteurs Remus et Levy1, la plupart de ces outils auront un impact potentiel modéré sur la pratique du droit. Parmi les solutions évaluées par les membres de notre laboratoire, certaines fonctionnalités ont particulièrement attiré notre attention. Contexte historique Au début des années 1950, lorsque Grace Murray Hopper, pionnière de l’informatique, tentait de persuader ses collègues de créer un langage informatique utilisant des mots d’anglais, on lui répondait que c’était impossible qu’un ordinateur puisse comprendre l’anglais. Toutefois, contrairement aux ingénieurs et aux mathématiciens de l’époque, le monde des affaires se montra plus ouvert à cette idée. Ainsi naquit le « Business Language version 0 », ou B-0, l’ancêtre de plusieurs langages informatiques plus modernes et un premier (petit) pas vers le traitement du langage naturel. Il n’en reste pas moins que l’usage de l’informatique pour des solutions juridiques fut un défi, en raison, notamment, de la nature de l’information à traiter, souvent présentée sous forme textuelle et peu organisée. L’auteur Richard Susskind traitait déjà en 1986 de l’usage de l’intelligence artificielle pour traiter d’informations juridiques2. Ce n’est toutefois que plus récemment, avec les avancées en traitement du langage naturel, qu’on a vu apparaître des logiciels ayant le potentiel de modifier substantiellement la pratique du droit. Plusieurs avocats et notaires s’inquiètent aujourd’hui de l’avenir de leur profession. Sommes-nous en train d’assister à la naissance de l’avocat-robot? À ce jour, les solutions technologiques offertes aux juristes permettent l’automatisation de certains aspects spécifiques liés à la multitude de tâches qu’ils accomplissent lorsqu’ils effectuent leur travail. Les outils d’automatisation et d’analyse de documents en sont des exemples pertinents en ce qu’ils permettent, dans un cas, de créer des documents de nature juridique à partir d’un modèle existant et, dans l’autre cas, de faire ressortir certains éléments qui peuvent être potentiellement problématiques dans des documents soumis.  Cependant, aucune solution ne peut se targuer de remplacer entièrement le professionnel du droit. Récemment, les auteurs précités Remus et Levy ont analysé et mesuré l’impact de l’automatisation sur le travail des avocats3. De manière générale, ils prédisent que seul le processus de recherche documentaire sera bouleversé de façon importante par l’automatisation et que les tâches de gestion de dossiers, de rédaction documentaire, de vérification diligente, de recherche et d’analyse juridique seront touchées modérément. Par ailleurs, ils estiment que les tâches de gestion documentaire, de rédaction juridique, de conseil, de négociation, de cueillette factuelle, de préparation et de représentation à la cour ne seront que légèrement bouleversées par les solutions intégrant l’intelligence artificielle4. Les outils d’analyse documentaire Kira, Diligen, Luminance, Contract Companion, LegalSifter, LawGeex, etc. D’abord, parmi les outils permettant l’analyse documentaire, deux types de solutions sont offerts sur le marché. D’une part, plusieurs utilisent l’apprentissage supervisé et non supervisé pour trier et analyser un grand nombre de documents afin d’en tirer certaines informations ciblées. Ce type d’outil est particulièrement intéressant dans un contexte de vérification diligente. Il permet notamment d’identifier l’objet d’un contrat donné ainsi que certaines clauses, les lois applicables et d’autres éléments déterminés dans le but de détecter certains éléments de risque préalablement déterminés par l’utilisateur. À cet égard, notons par exemple l’existence d’outils de vérification diligente comme Kira, Diligen et Luminance5. D’autre part, des solutions sont destinées à l’analyse et à la révision de contrats afin de faciliter la négociation avec une tierce partie. Ce type d’outil utilise le traitement automatique du langage naturel (TALN) afin d’identifier les termes et clauses particuliers du contrat. Il détermine également les éléments qui sont manquants dans un type donné de contrat. Par exemple, dans une entente de confidentialité, l’outil avertira l’utilisateur si la notion d’information confidentielle n’est pas définie. De plus, des commentaires sont fournis quant aux différents éléments identifiés dans le but de fournir des conseils sur la négociation des modalités du contrat. Ces commentaires et conseils peuvent être modifiés en fonction des pratiques privilégiées par le juriste. Ces solutions nous apparaissent particulièrement utiles lorsque le professionnel du droit est appelé à conseiller un client sur l’opportunité ou non de se conformer aux termes d’un contrat qui lui est soumis par un tiers. L’outil Contract Companion6 a attiré notre attention pour sa simplicité d’utilisation, même s’il s’agit ici d’un outil visant seulement à assister un rédacteur humain  sans toutefois identifier les clauses problématiques et leur contenu. L’outil va plutôt détecter certaines incohérences, comme l’absence d’une définition d’un terme débutant par une majuscule, entre autres exemples. LegalSifter et LawGeex7 se présentent comme des assistants à la négociation en proposant des solutions qui repèrent les divergences entre un contrat soumis et les meilleures pratiques favorisées par le cabinet ou l’entreprise, aidant ainsi à trouver et à résoudre les clauses manquantes ou problématiques. Les outils de recherche juridiqueInnovationQ, NLPatent, etc. Récemment, quelques solutions permettant l’analyse de la recherche juridique et la prédiction des décisions des tribunaux sont apparues sur le marché. Des entreprises proposent de simuler un jugement à partir d’éléments factuels envisagés dans le contexte d’un régime juridique donné pour aider à la prise de décision. Pour y parvenir, elles utilisent le TALN pour comprendre les questions posées par les juristes, fouiller la législation, la jurisprudence et les sources doctrinales. Certaines solutions proposent même aux avocats de déterminer leurs chances de gagner ou de perdre en fonction d’éléments donnés, tels que l’avocat de la partie adverse, le juge et le niveau de tribunal. Pour y parvenir, l’outil utilise l’apprentissage automatique. Il pose des questions à propos de la situation du client et, par la suite, il analyse des milliers de cas similaires sur lesquels les tribunaux se sont prononcés. Au final, le système d’intelligence artificielle formule une prédiction basée sur tous les cas analysés, une explication personnalisée et une liste de jurisprudence pertinente. Avec la venue de ces outils, des auteurs anticipent des changements considérables dans la nature des litiges qui se retrouveront devant les tribunaux. Ils prévoient que la technologie favorisera le règlement des différends et que les juges n’auront à se prononcer que sur les conflits générant les questions de droit les plus complexes et suscitant de réels développements juridiques.8 En droit des brevets, la recherche d’inventions existantes (« art antérieur » dans le vocabulaire de la propriété intellectuelle) est facilitée par des outils faisant appel au TALN. La rédaction de brevets comporte généralement un vocabulaire spécialisé. Les solutions permettent d’identifier la technologie ciblée, de déterminer l’art antérieur pertinent et d’analyser les documents qui y sont relatifs afin de repérer les éléments divulgués. À cet égard, les outils d’InnovationQ et NLPatent9 nous semblent démontrer un potentiel intéressant. Les outils de rédaction juridiqueSpecif.io, etc. Quelques solutions offertes sur le marché font appel au potentiel « créatif » de l’intelligence artificielle appliqué au droit. Parmi celles-ci, nous nous sommes intéressés à une solution offrant la rédaction du mémoire descriptif dans le contexte d’une demande de brevet. L’outil Specif.io10 permet de rédiger une description de l’invention en utilisant un vocabulaire adapté et la forme requise pour la rédaction de demandes de brevet, et ce, sur la base de projets de revendications délimitant de manière sommaire la portée de l’invention. Pour le moment, cette solution est restreinte au domaine des inventions en matière de logiciel. Même si, la plupart du temps et dans l’état actuel du produit, le juriste sera appelé à retravailler le texte substantiellement, il peut gagner un temps considérable dans la rédaction d’un premier jet. Recommandations En conclusion, les outils d’intelligence artificielle ne progressent pas de manière uniforme dans tous les domaines du droit. Plusieurs outils peuvent déjà assister des juristes dans diverses tâches répétitives ou les aider à repérer des erreurs ou des risques potentiels dans divers documents. Toutefois, il est important de considérer que ces outils sont encore loin d’avoir la faculté humaine de contextualiser leurs interventions. Là où l’information est organisée et structurée, comme en matière de brevets, domaine dans lequel les bases de données sont organisées et accessibles en ligne pour la plupart des pays occidentaux, les outils permettent non seulement d’assister les usagers dans leurs tâches, mais carrément de fournir un premier projet pour la rédaction d’un mémoire descriptif à partir de simples revendications. Cependant, recherche et développement sont encore nécessaires à cet égard avant qu’on puisse vraiment se fier à de telles solutions. Nous croyons donc pertinent d’émettre certaines grandes recommandations pour les juristes qui voudraient intégrer des outils infusés d’intelligence artificielle dans leur pratique : Connaître les possibilités et les limites d’un outil : lors du choix d’un outil d’intelligence artificielle, il est important d’effectuer des tests afin d’en évaluer le fonctionnement et les résultats. Il faut cibler un objectif précis et s’assurer que l’outil testé permette l’atteinte de cet objectif. Supervision humaine : à ce jour, il est important que tout outil d’intelligence artificielle demeure supervisé par un être humain. Il s’agit non seulement là d’une obligation déontologique pour assurer la qualité des services rendus, mais aussi d’une simple règle de prudence face à des outils n’ayant pas la capacité de contextualiser l’information qu’on leur soumet. Traitement des ambiguïtés : plusieurs outils d’intelligence artificielle permettent divers réglages dans leurs interventions. De tels réglages devraient faire en sorte que le traitement de toute situation ambigüe pour le système soit confié à des opérateurs humains. Confidentialité des données : N’oublions pas que nous sommes soumis à un devoir de confidentialité! Le traitement de l’information confidentielle par les fournisseurs de solutions est un enjeu crucial à considérer. Il ne faut pas avoir peur de poser des questions à ce sujet. Des employés informés :L’intelligence artificielle fait trop souvent peur aux employés. Qui plus est, comme tout changement technologique, la formation interne s’avère nécessaire pour s’assurer que l’utilisation de tels outils soit conforme aux attentes de l’entreprise. Il faut donc non seulement choisir de bons outils d’intelligence artificielle, mais aussi penser à la formation nécessaire pour en tirer profit.   Remus, D., & Levy, F. (2017). Can Robots Be Lawyers: Computers, Lawyers, and the Practice of Law. Geo. J. Legal Ethics, 30, 501. Susskind, R. E. (1986). Expert systems in law: A jurisprudential approach to artificial intelligence and legal reasoning. The modern law review, 49(2), 168-194. Préc., note 1. Id. kirasystems.com; diligen.com; luminance.com. https://www.litera.com/products/legal/contract-companion. legalsifter.com; lawgeex.com. Luis Millan, Artificial Intelligence, Canadian Lawyer (7 avril 2017), en ligne : http://www.canadianlawyermag.com/author/sandra-shutt/artificial-intelligence-3585. http://ip.com/solutions/innovationq; nlpatent.com. specif.io/index.

    Lire la suite
  • Véhicules autonomes : entrée en vigueur d’un premier projet-pilote

    Le 16 août 2018, Projet-pilote relatif aux autobus et aux minibus autonomes 1 (ci-après, le « Projet-pilote ») est entré en vigueur au Québec. Ce projet prévoit les lignes directrices en matière de conduite encadrée des premiers véhicules autonomes sur le territoire québécois. La conduite des véhicules autonomes au québec Le terme véhicule autonome a été défini par le nouveau Code de la sécurité routière comme étant « un véhicule routier équipé d’un système de conduite autonome qui a la capacité de conduire un véhicule conformément au niveau d’automatisation de conduite 3, 4 ou 5 de la norme J3016 de la SAE International »2. La conduite de ces véhicules est actuellement prohibée au Québec, sauf dans la mesure où un projet-pilote l’encadre3. Conditions d’amissibilité Afin d’être autorisé par le ministre en vertu du Projet-pilote, le fabricant, distributeur ou exploitant de véhicules autonomes (référé par la loi comme étant le « promoteur ») doit transmettre au ministre des Transports et à la Société de l’assurance automobile du Québec (la « SAAQ ») plusieurs informations concernant son projet d’expérimentation, notamment : -      une demande présentant le projet et ses objectifs; -      une description des véhicules qui seront utilisés; -      le territoire visé par le projet; -      les mesures de sécurité proposées4. Assurance et cautionnement Conformément au nouveau Code de la sécurité routière, le Projet-pilote prévoit que le promoteur d’un projet devra se munir d’une assurance-responsabilité pour la somme minimale de 1 000 000 $ afin de garantir l’indemnisation d’un préjudice matériel5. En cas d’accident impliquant un véhicule autonome visé par un projet d’expérimentation, la SAAQ pourra recouvrer auprès du fabricant ou du distributeur du véhicule autonome impliqué dans l’accident les indemnités payées aux termes de la Loi sur l’assurance automobile6. Dans un tel cas, l’exploitant d’un projet aura l’obligation de rembourser les indemnités7. Un cautionnement devra aussi être fourni à la SAAQ afin de garantir ce remboursement, dont le montant sera fixé par le ministre au cas par cas, selon le projet. Le fabricant ou distributeur auquel la SAAQ aura réclamé des indemnités pourra refuser de les rembourser ou encore demander la diminution du montant réclamé dans les deux cas suivants : 1)    s’il démontre que la faute a été commise par la victime ou un tiers; ou 2)    en cas de force majeure8. Projet d’expérimentation Par son entrée en vigueur, le Projet-pilote a autorisé un premier projet d’expérimentation au Québec, soit celui de l’entreprise Keolis Canada Innovation, s.e.c9. Ce projet vise la mise en service de minibus autonomes de marque Navya pouvant transporter jusqu’à 15 passagers qui circuleront dans un circuit fermé à Candiac. Les véhicules circuleront à une vitesse maximale de 25 km/h et un conducteur sera présent à bord afin de pouvoir prendre le contrôle du véhicule, au besoin10. Maintenant que le cadre législatif le permet, parions sur la venue de plusieurs autres projets dans l’avenir.   Projet-pilote relatif aux autobus et aux minibus autonomes (Code de la sécurité routière, RLRQ chapitre C-24.2, art. 633.1).[Projet-pilote] Code de la sécurité routière, RLRQ chapitre C-24.2, art. 4. Code de la sécurité routière, RLRQ chapitre C-24.2, art. 492.8; sauf pour les véhicules de niveau 3, qui peuvent circuler si leur vente est permise au Canada. Projet-pilote, art 4. Projet-pilote, art 20. Loi sur l’assurance automobile, RLRQ c A-25. Projet-pilote, art 21. Projet-pilote, art 22. Projet-pilote, art 26. « Une navette sans conducteur à l’essai pour un an à Candiac », La Presse, 11 août 2018, Montréal.  

    Lire la suite
  • Dr Robot, à votre service : l’intelligence artificielle en matière de santé

    Les technologies d’intelligence artificielle sont extrêmement prometteuses en matière de santé1. En explorant, croisant et comparant une quantité phénoménale de données2, l’IA permet aux chercheurs d’avancer plus rapidement et à moindre coûts3 et aux médecins de faciliter la prise de décision relative au diagnostic, au traitement et au choix de prescription. L’intégration de l’IA dans le domaine de la santé peut prendre diverses formes4 : La gestion des dossiers médicaux électroniques (ex : Omnimed) Les soins directs aux patients afin d’améliorer la prise de décisions relatives aux diagnostics, pronostics et aux choix de méthodes thérapeutiques L’intégration en matière de suivi et de prise de médicaments (ex : Dispill) L’exécution de chirurgies et d’examens robotisés Les soins indirects aux patients tels que : Optimisation du déroulement des opérations Meilleure gestion des stocks à l’hôpital Des applications dans les soins à domicile, où des appareils portables et des capteurs serviront à évaluer et à prédire les besoins des patients. Veiller à la protection du public, des innovateurs et de leurs clients Quelque soit la forme qu’emprunte l’implantation de l’IA dans le domaine de la santé au Québec, comme toute innovation, nous devons nous adapter et veiller à la protection du public, des innovateurs et de leurs clients. Qu’est-ce qu’un innovateur? Un innovateur est un développeur, fournisseur ou encore distributeur qui intervient dans le développement et la commercialisation de produits dotés d’intelligence artificielle. 1 - La protection des innovateurs L’avenir des soins de santé résidant dans une intégration accrue de l’IA, les innovateurs se doivent d’être bien accompagnés et protégés, ce qui veut dire d’avoir en main tous les moyens utiles à la protection de leurs droits, notamment en matière de propriété intellectuelle. Au moment de développer leurs produits : ils doivent s’assurer d’obtenir les garanties et engagements nécessaires de leurs partenaires afin de pouvoir faire respecter leurs droits advenant l’appropriation de leur technologie par un tiers. Au moment de commercialiser leurs produits : en ayant pris le soin de bien protéger leurs droits, ils éviteront des poursuites ou des réclamations, qu’elles soient en matière de violation de brevet ou autre. De plus, si la solution technologique proposée implique que les données recueillies, transmises ou analysées soient conservées et mises en commun ou encore qu’elles soient partagées avec différents intervenants, ils devront notamment s’assurer de protéger les renseignements personnels des patients conformément aux lois et règlements applicables5 et de veiller à ce que ces données ne soit pas utilisées à des fins commerciales. À défaut, un innovateur pourrait se voir retirer sa certification par le ministère de la Santé et des Services sociaux. Pour en savoir plus sur la protection des innovateurs, nous vous invitons à consulter l’article : Intelligence artificielle : les obligations contractuelles au-delà de l’expression à la mode. 2 - La protection des clients (acheteurs de solutions en intelligence artificielle) Plusieurs limites sont intrinsèques au fonctionnement de l’intelligence artificielle : la priorisation de la quantité de données recueillies versus la qualité de celles-ci, les erreurs systémiques reproduites et amplifiées6 et les erreurs humaines dans l’entrée même des données sur lesquelles vont s’appuyer les professionnels et chercheurs. Ainsi, les innovateurs devront s’assurer de bien avertir leurs clients des limites et risques liés à l’utilisation de leurs produits afin de se protéger contre d’éventuelles réclamations. Ils devront donc faire preuve d’objectivité dans la façon dont ils représenteront leurs produits. Par exemple, des termes comme « banque de données intelligentes » devraient être utilisés plutôt que « systèmes de diagnostic ». Ce choix de mots évitera d’une part d’éventuelles poursuites en responsabilité civile et d’autre part de se faire reprocher d’enfreindre la Loi médicale en exerçant un acte réservé aux médecins7. L’innovateur devra également conclure un contrat avec son client qui soit clair et détaillé à l’égard de l’utilisation, de l’accès et du partage des données recueillies dans les dossiers médicaux électroniques (« DME »). 3 - La protection du public (réglementation du Collège des médecins du Québec) Tout produit intégrant des technologies d’IA doit permettre aux médecins de respecter leurs obligations à l’égard de la constitution et du maintien d’un DME. Ces obligations sont comprises à l’article 9 du projet de règlement du Collège des médecins, lequel devrait entrer en vigueur dans un avenir rapproché et rendre obligatoire l’utilisation des DME.8 Le Collège entend également y spécifier que l’utilisation des données recueillies ne peut servir « à d’autres fins que le suivi et le traitement des patients9 ». La Direction des enquêtes du Collège a également récemment averti ses membres que les outils technologiques dont ils se servent « doivent être exclusivement utilisés dans le cadre de leurs fonctions, c’est-à-dire la dispensation des soins10 ». La position actuelle du Collège des médecins et du Ministère de la Santé est qu’il est interdit de commercialiser les données contenues dans les DME et ce, même s’ils elles ont été rendues anonymes. De plus, et selon le Dr Yves Robert, secrétaire du Collège, même si les données partagées sont anonymes, elles ne peuvent être utilisées ni pour favoriser un produit, tel un médicament moins cher pour une compagnie d’assurance, ni pour influencer le choix des médecins dans leur prise de décision11. La Direction des enquêtes a également tenu à rappeler à ses membres leur obligation déontologique d’ « ignorer toute intervention d’un tiers en vue d’influer sur l’exécution de ses devoirs professionnels au préjudice de son patient, d’un groupe d’individus ou d’une population.12 »   L’utilisation de Big Data aurait pour effet de créer plus de 300 milliards $USD en valeur, dont le deux tiers en réduction de dépenses : Big Data Analytics in Healthcare, BioMed Research International, vol. 2015, Article ID 370194; voir également Top health industry issues of 2018, PwC Health Research Institute, p. 29. Le consortium américain Kaiser Permanente détient environ 30 pétaoctets de données, soit 30 millions de gigaoctets, et en recueille quotidiennement 2 téraoctets. Mining Electronic Records for Revealing Health Data, New York Times, 14 janvier 2013. Pour des exemples d’intégration de l’IA en matière de santé au Canada, voir Défi en vue : Intégrer les technologies de la robotique, de l’intelligence artificielle et de l’impression en 3D dans les systèmes canadiens de soins de santé, octobre 2017. Voir notamment l’Art. 20 du Code de déontologie des médecins, RLRQ c. M-9, r. 17 et la Loi sur la protection des renseignements personnels dans le secteur privé, RLRQ c P-39. Voir Lorsque l’intelligence artificielle est discriminatoire. Loi médicale, RLRQ c. M-9, art. 31. Art. 3 du projet de règlement. Id., Art. 9, par. 9. L’accès au dossier médical électronique : exclusivement pour un usage professionnel, Direction des enquêtes du Collège des médecins du Québec, 13 février 2018. Marie-Claude Malboeuf, « Dossiers médicaux à vendre », La Presse.ca, 2 mars 2018. Accès au dossier médical électronique par les fournisseurs, Direction des enquêtes du Collège des médecins du Québec, 29 mai 2017, citant l’article 64 du Code de déontologie des médecins, préc. note 12.

    Lire la suite
  • Ars Ex Machina : l’intelligence artificielle, cette artiste

    À l’instar de l’être humain, la machine est désormais capable de créer. Elle peut écrire des poèmes, composer des symphonies et même peindre des tableaux. Elle peut également photographier sans intervention humaine et interpréter des pièces musicales avec souplesse et expression. Sur le plan technique, ces œuvres et performances sont réussies au point où elles confondent plusieurs connaisseurs, incapables de distinguer la création humaine de sa contrepartie artificielle. En revanche, sur le plan artistique, la qualité des œuvres générées artificiellement est souvent critiquée. Pour les juristes, la question de savoir si elles répondent à tous les critères donnant ouverture à un droit d’auteur se pose. L’objet du droit d’auteur au Canada Le droit d’auteur est le droit exclusif de produire, de reproduire, de vendre ou concéder par licence, de publier ou d’exécuter une œuvre ou une partie importante de celle-ci, qu’elle soit de nature littéraire, artistique, dramatique ou musicale.1 En droit canadien, pour faire l’objet d’un droit d’auteur, une œuvre doit être qualifiée d’originale, c’est-à-dire, provenir de l’exercice du talent et du jugement de son auteur2. Même s’il est difficile d’affirmer qu’un ordinateur puisse faire preuve de talent et de jugement, les définitions proposées par la Cour suprême clarifiant les deux aptitudes décrivent plutôt bien la tâche accomplie par la machine lorsqu’elle crée des œuvres. Mentionnons en outre au passage que le caractère créatif n’est nullement considéré dans la notion d’originalité : l’œuvre n’a besoin d’être ni innovatrice ni unique. Processus de création artistique du système intelligent Toute création d’un système d’intelligence artificielle tire son origine d’un ou de plusieurs algorithmes, c’est-à-dire qu’une série d’opérations mathématiques est effectuée pour obtenir un résultat. Celui-ci peut être qualifié de nouveau dans la mesure où il ne reproduit pas une œuvre existante. Par contre, il présente souvent un caractère mécanique qui freine son assimilation à une véritable œuvre d’art. Les œuvres générées par ordinateur de façon autonome sont généralement moins hétérogènes que leurs contreparties humaines3. Un système peut, par exemple, après avoir été exposé à une grande quantité de musique de Mozart et avoir acquis la théorie musicale nécessaire, générer des œuvres musicales dans le style de Mozart. Même si elles peuvent être critiquées au point de vue de l’innovation artistique, de telles œuvres satisfont le critère de l’originalité au sens juridique puisqu’elles nécessitent le recours à une certaine aptitude acquise (talent) et à l’évaluation de différentes options possibles (jugement). L’écriture d’un poème dans le style de Verlaine ou d’une symphonie à la manière de Beethoven peut ultimement mener, selon ces critères, à la reconnaissance d’un droit d’auteur. Le robot interprète La Loi sur le droit d’auteur4 prévoit également la protection des droits voisins, c’est-à-dire, le droit d’auteur sur la prestation d’une œuvre5. Depuis déjà plusieurs années, des programmes informatiques peuvent « jouer » des pièces musicales données de manière autonome. Récemment, la qualité des interprétations de ces programmes s’est considérablement améliorée et elles font preuve d’une subtilité et d’une souplesse autrefois déficientes. Par exemple, la société suisse ABB a mis au point YuMi, le robot chef d’orchestre capable de diriger un orchestre de musiciens humains et de suivre la liberté des vocalises du ténor soliste6. Plus près de chez nous, la chanteuse-hologramme interactive Maya Kodes a été créée par Neweb.tv, une société établie à Montréal. Sur scène, elle chante et interagit avec les danseurs et musiciens qui l’accompagnent7. L’avantage est considérable pour le producteur de films, de spectacles, de jeux vidéos ou de publicité qui, grâce à ces innovations technologiques, peut désormais générer de la musique originale après avoir sélectionné des paramètres tels que le genre, l’ambiance et la durée souhaités sans avoir à débourser pour une licence auprès des différents intervenants titulaires de droits d’auteur relativement à cette musique, soit le compositeur, le réalisateur et l’interprète. Qui est le titulaire du droit d’auteur ? Ailleurs dans le monde Le bureau américain du droit d’auteur a émis des règles particulières exigeant du titulaire d’un droit d’auteur qu’il soit un être humain8. Les œuvres produites par une machine ou un autre procédé mécanique qui opère de manière aléatoire ou automatique ne sont, selon ces règles, pas admissibles à la reconnaissance d’un droit d’auteur sans la présence d’une intervention créative de la part d’un être humain9. Or, il semble que ces directives laissent place à une zone grise car la loi n’a pas été ajustée en conséquence. Certaines législations, comme celle de l’Australie10, ont établi que le droit d’auteur était intimement lié à une personne humaine. D’autres ont créé une fiction juridique selon laquelle le créateur du programme informatique est considéré comme le titulaire du droit d’auteur. C’est le cas du Royaume-Uni, de l’Irlande et de la Nouvelle-Zélande11. Cette dernière solution fait toutefois l’objet de critiques selon lesquelles la fiction juridique proposée fait fi des complexités liées à la création d’un programme informatique. En effet, la distance entre l’auteur du programme et l’œuvre ultimement produite peut s’avérer importante12. Il est possible qu’un programme d’intelligence artificielle crée quelque chose de complètement inattendu et non souhaité par la personne à l’origine de la programmation13. L’humain derrière le système d’intelligence artificielle n’est pas lui-même auteur du message sous-jacent à l’œuvre littéraire ou à la mélodie qui découle de la musique composée. Au Canada Aux États-Unis, une auteure propose de considérer l’œuvre de la machine comme celle de l’employé embauché afin de créer ou d’exécuter des œuvres tombant sous la loi américaine sur le droit d’auteur14. Le concept de l’œuvre exécutée dans l’exercice d’un emploi existe également dans la Loi sur le droit d’auteur du Canada, avec certaines nuances techniques15. Selon cette idée, le programmeur ou la personne qui commande l’œuvre au programmeur qu’elle emploie devient titulaire des droits économiques liés à l’œuvre, c’est-à-dire, les droits liés à la commercialisation de cette œuvre. Cette solution évacue la notion de droits moraux, c’est-à-dire le droit, pour l’auteur, à l’intégrité de son œuvre ainsi que le droit d’en revendiquer, même sous un pseudonyme, la création ou encore l’anonymat16. Comme ces droits sont incessibles, il est difficile d’envisager que la solution proposée par l’auteure précitée soit viable en droit canadien. En somme, l’introduction d’un nouveau régime juridique adapté aux créatures artistiques de l’intelligence artificielle est perçue comme étant nécessaire par plusieurs quant à l’objet et quant au titulaire du droit d’auteur qui en découle. Pour le moment, puisque la question n’a pas encore été débattue devant les tribunaux, les solutions envisageables sont concentrées dans deux pôles. D’une part, on pourrait reconnaître un droit d’auteur à la personne qui a créé l’intelligence artificielle à l’origine de l’œuvre. D’autre part, si on ne parvient à rattacher de droit d’auteur ni au programmeur ni à la machine, l’œuvre risque de tomber dans le domaine public et ainsi perdre sa valeur économique. Chose certaine, le régime juridique souhaité devra tenir compte à la fois des droits du ou des programmeurs à l’origine du système quant à l’œuvre ultimement produite et du niveau de contrôle que ceux-ci peuvent avoir sur le contenu ainsi généré. Lavery a mis sur pied le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) qui analyse et suit les développements récents et anticipés dans le domaine de l’intelligence artificielle d’un point de vue juridique. Notre Laboratoire s’intéresse à tous les projets relatifs à l’intelligence artificielle (IA) et à leurs particularités juridiques, notamment quant aux diverses branches et applications de l’intelligence artificielle qui feront rapidement leur apparition dans toutes les entreprises et les industries.   Loi sur le droit d’auteur, L.R.C. (1985), c. C-42, articles 3, 15, 18 et 26. La Cour suprême définit le talent comme « le recours aux connaissances personnelles, à une aptitude acquise ou à une compétence issue de l’expérience pour produire l’œuvre. » Elle décrit le jugement comme « la faculté de discernement ou la capacité de se faire une opinion ou de procéder à une évaluation en comparant différentes options possibles pour produire l’œuvre. » CCH Canadienne Ltée c. Barreau du Haut-Canada, 2004 CSC 13. Bridy, A. (2012). Coding creativity: copyright and the artificially intelligent author. Stan. Tech. L. Rev., 1. LRC 1985, c C-42. Id., art. 15. YuMi the robot conducts Verdi with Italian Orchestra, Reuters, 13 septembre 2017, https://www.reuters.com/article/us-italy-concert-robot/yumi-the-robot-conducts-verdi-with-italian-orchestra-idUSKCN1BO0V2´. Kirstin Falcao, Montreal developers create 1st interactive holographic pop star, CBC News, 2 novembre 2016, http://www.cbc.ca/news/canada/montreal/maya-kodes-virtual-singer-1.3833750. U.S. Copyright Office, Compendium of U.S. Copyright Office Practices § 306 (3d ed. 2017). Id., § 313.2. Acohs Pty Ltd v Ucorp Pty Ltd [2012] FCAFC 16. Copyright, Designs and Patents Act, 1988, c. 48, § 9(3) (U.K.); Copyright Act 1994, § 5 (N.Z.); Copyright and Related Rights Act, 2000, Part I, § 2 (Act. No. 28/2000). Supra, note 3. Wagner, J. (2017). Rise of the Artificial Intelligence Author, The Advocate, 75, 527. Supra, note 3. L’article 13(3) de la Loi sur le droit d’auteur établit ce régime juridique particulier et distingue le contrat d’emploi du contrat lié à une contribution journalistique. Supra, note 4, art. 14.1(1).

    Lire la suite
  • Voitures autonomes au Québec : le flou juridique enfin comblé

    Suite à l’adoption de la Loi modifiant le Code de la sécurité routière et d’autres dispositions1 le 17 avril 2018, la conduite des voitures autonomes au Québec est enfin encadrée, bien que plusieurs incertitudes planent toujours.  En effet, la conduite des voitures autonomes d’automatisation de niveau 3, tel le modèle X de Tesla muni du système de pilotage amélioré, est désormais officiellement permise au Québec. En ce qui a trait à la conduite des véhicules de niveau 4 et 5, elle est pour l’instant interdite, mais nous pouvons prévoir que celle-ci sera possible dans le cadre d’un projet-pilote mis en place par le gouvernement puisque celui-ci a « manifesté sa volonté de voir le Québec devenir un chef de file reconnu dans certains segments des véhicules électriques et intelligents »2. En rappel, les niveaux d’autonomisation pour les voitures : niveau 0, c’est-à-dire aucune automatisation; niveau 1, procurant des fonctions d’assistance au conducteur; niveau 2, d’autonomie dite partielle, c’est-à-dire qui procure des fonctions d’assistance et d’accélération/décélération automatique, mais exige que le conducteur humain garde le contrôle sur toutes les fonctions de conduite dynamique; niveau 3, c’est-à-dire d’automatisation conditionnelle, qui propose des fonctions de conduite dynamiques exécutées par le système de contrôle, mais nécessitant que le conducteur humain demeure disponible en tout temps; niveau 4, c’est-à-dire d’automatisation importante, soit lorsque le système de contrôle d’un véhicule offre un contrôle total de toutes les fonctions de conduite, même en situation de sécurité critique; et niveau 5, d’automatisation complète, lorsqu’un véhicule exécute toutes les fonctions de conduite seul, sans possibilité pour l’humain d’intervenir. « L’ANCIEN » CODE DE LA SÉCURITÉ ROUTIÈRE Jusqu'à tout récemment, le Code de la sécurité routière3(ci-après le « Code ») omettait d’inclure une définition de véhicule autonome. Il définissait un véhicule routier comme étant un « véhicule motorisé qui peut circuler sur un chemin » et un véhicule automobile comme « un véhicule routier motorisé qui est adapté essentiellement pour le transport d’une personne ou d’un bien »4. Ces définitions larges et l’absence de définition spécifique de véhicule autonome créaient un flou juridique. Les véhicules autonomes étaient-ils permis sur les routes du Québec ? Que serait-il arrivé en cas d’accident impliquant un véhicule autonome? Le ministère a reconnu ce flou juridique et procédé à des amendements au Code concernant entre autres les véhicules autonomes. LE « NOUVEAU » CODE DE LA SÉCURITÉ ROUTIÈRE Le Code définit désormais une voiture autonome comme « un véhicule routier équipé d’un système de conduite autonome qui a la capacité de conduire un véhicule conformément au niveau d’automatisation de conduite 3, 4 ou 5 de la norme J3016 de la SAE International »5. Suivant les amendements apportés au Code, la conduite des voitures autonomes sur les routes du Québec sera interdite, mis à part pour les voiture d’automatisation de niveau 3, lorsque leur vente est permise au Canada6. Cela dit, le ministère des Transports pourra mettre sur pied des projets-pilotes relatifs aux voitures autonomes visant « à étudier, à expérimenter ou à innover »7. Ces projets-pilotes auront une durée de cinq (5) ans et pourront également « prévoir une exemption de contribution d’assurance associée à l’autorisation de circuler ainsi que fixer le montant minimum obligatoire de l’assurance responsabilité garantissant l’indemnisation du préjudice matériel causé par une automobile »8. Quant à la responsabilité en cas d’accident impliquant un véhicule autonome, « l’obligation, pour le fabricant ou le distributeur, de rembourser à la Société [de l’assurance automobile du Québec] les indemnités qu’elle sera tenue de verser en cas d’accident automobile »9 pourra être prévue dans un projet-pilote. IMPLICATIONS ET INCERTITUDES Alors que le ministre des Transports du Québec, André Fortin, soutien que le nouveau Code est « tourné vers l'avenir » et est confiant qu’il permettra « d’améliorer davantage le bilan routier québécois »10, des incertitudes planent toujours quant aux conditions qui seront établies afin d’encadrer les projets mettant en jeu les voitures d’automatisation des niveaux 4 et 5. Également, les obligations des conducteurs et des fabricants de voitures autonomes eu égard à l’assurance responsabilité devront être clarifiées. Un cadre plus précis quant à la responsabilité des fabricants de voitures autonomes devra nécessairement être mis en place par le législateur. Le gouvernement québécois n’aura donc d’autre choix que de continuer à mettre les bouchées doubles afin que des projets-pilotes soient proposés, notamment pour rattraper l’Ontario qui a déjà en place depuis 2016 son projet-pilote visant les voitures autonomes11.   PL 165, Loi modifiant le Code de la sécurité routière et d’autres dispositions; La date de sanction et d’entrée en vigueur des nouvelles dispositions n’est pas encore déterminée. Gouvernement du Québec, ministère de l’Économie, de la Science et de l’Innovation, « Le gouvernement du Québec soutient la Grappe industrielle des véhicules électriques et intelligents », Montréal, 13 avril 2018, en ligne. Code de la sécurité routière, RLRQ, c C-24.2. Code de la sécurité routière, RLRQ, c C-24.2, art 4. PL 165, Loi modifiant le Code de la sécurité routière et d’autres dispositions, art 4. PL 165, Loi modifiant le Code de la sécurité routière et d’autres dispositions, art 125 (ajout de l’article 492.8 au Code de la sécurité routière). PL 165, Loi modifiant le Code de la sécurité routière et d’autres dispositions, art 164 (modification de l’article 633.1 du Code de la sécurité routière). PL 165, Loi modifiant le Code de la sécurité routière et d’autres dispositions, art 164 (modification de l’article 633.1 du Code de la sécurité routière). PL 165, Loi modifiant le Code de la sécurité routière et d’autres dispositions, art 164 (modification de l’article 633.1 du Code de la sécurité routière). Journal des débats de l’Assemblée nationale, Vol. 44, N° 327, 17 avril 2018 (en ligne).  Pilot Project - Automated Vehicles, O Reg 306/15.    

    Lire la suite
  • Intelligence artificielle et chaînes de blocs : vulnérables aux cyberattaques

    Les technologies qui reposent sur les chaînes de blocs (blockchain en anglais) et l’intelligence artificielle représentent un changement important pour notre société. La sécurité des données qui y sont échangées étant cruciale, l’adoption de ces solutions doit être planifiée dès aujourd’hui dans une optique à long terme. Les entreprises sont nombreuses à mettre au point des services qui reposent sur les chaines de blocs, notamment dans le secteur des services financiers. Les cryptomonnaies, un exemple d’utilisation des chaînes de blocs, changent la manière dont s’effectuent certains échanges monétaires, loin du contrôle des institutions bancaires et des gouvernements. Du côté de  l’intelligence artificielle, les entreprises choisissent parfois des plateformes technologiques qui mettent en cause un partage des données dans le but d’accélérer la mise au point de leur outil d’intelligence artificielle. L’impact de la révolution quantique sur la cybersécurité En 2016, IBM a rendu accessible aux chercheurs un ordinateur permettant d’effectuer des essais sur divers algorithmes quantiques1. Il faut savoir que mode de fonctionnement des ordinateurs quantiques est radicalement différent de celui des ordinateurs conventionnels. D’ici une dizaine d’années, ils permettront d’effectuer rapidement des calculs qui dépassent la capacité des ordinateurs actuels les plus puissants. En effet, les ordinateurs quantiques utilisent les propriétés quantiques de la matière, notamment la superposition d’états, qui permet de traiter simultanément des ensembles de données liées. L’algorithme de Shor est un algorithme utilisant des propriétés quantiques de la matière et qui peut être utilisé par des ordinateurs quantiques. L’algorithme de Shor permet à un ordinateur quantique de factoriser un nombre entier très rapidement, beaucoup plus que n’importe quel ordinateur conventionnel. Cette opération mathématique est l’élément essentiel permettant de déchiffrer l’information qui a été encryptée par plusieurs méthodes répandues en informatique. Cette technologie, qui intéresse les physiciens depuis longtemps, représente désormais un risque important pour la sécurité des données encryptées. Les données que l’on souhaite garder sécurisées et confidentielles présentent ainsi une vulnérabilité aux détournements à des fins non-autorisées. Méthodes d’encryptages de chaînes de blocs : assez sécurisées? Plusieurs méthodes d’encryptages existent aujourd’hui et plusieurs d’entre elles devront être renforcées pour maintenir la sécurité des données. Et il ne s’agit là que de quelques exemples de vulnérabilités aux ordinateurs quantiques. Méthodes SHA-2 et SHA-3 Le National Institute of Standards and Technology (NIST) des États-Unis a émis des recommandations quant à la sécurité de diverses méthodes d’encryptage2. Les méthodes SHA-2 et SHA-3, qui sont les algorithmes qui servent à assurer l’intégrité des chaînes de blocs en produisant un « hachage » des blocs précédents, devront être renforcées pour maintenir le même niveau de sécurité. Méthodes de signature utilisées par les Bitcoins et d’autres cryptomonnaies La cryptographie par courbes elliptique est un ensemble de techniques  cryptographiques qui utilisent une ou plusieurs propriétés de fonctions mathématiques qui décrivent les courbes elliptiques afin d’encrypter des données. Selon le NIST, la cryptographie par courbes elliptique deviendra inefficace. Ce qui est préoccupant, c’est qu’on parle ici de la méthode utilisée pour la signature de cryptomonnaies, dont le célèbre Bitcoin. Des recherches récentes indiquent que cette méthode présente une grande vulnérabilité à une attaque par des ordinateurs quantiques, qui pourraient déjouer ces codes en moins de dix minutes d’ici quelques années3. Algorithmes cryptographiques de type RSA Les algorithmes cryptographiques de type RSA4, très répandus pour la communication de données par Internet, sont particulièrement vulnérables aux ordinateurs quantiques. Ceci pourrait notamment avoir un impact si de grandes quantités de données devraient être échangées entre plusieurs ordinateurs, par exemple pour alimenter des systèmes d’intelligence artificielle. Des algorithmes cryptographiques plus sécuritaires Le NIST reconnait certaines approches qui sont plus sécuritaires. Un algorithme mis au point par Robert McEliece, mathématicien et professeur à Caltech, semble pouvoir résister à ces attaques5 pour le moment. À plus long terme, on peut espérer que la technologie quantique permette elle-même de générer des clés sécuritaires. Incidences juridiques et d’affaires en matière de protection des données   La loi impose aux entreprises l’obligation de protéger les renseignements personnels et confidentiels qui leurs sont confiés par leurs clients. Elles doivent donc prendre des mesures adéquates pour protéger cet or brut que représentent les données.   Le choix d’une technologie d’intelligence artificielle ou de chaînes de blocs doit donc être effectué dès aujourd’hui, en tenant compte du fait qu’une fois adoptée, celle-ci sera utilisée pendant plusieurs années et sera possiblement appelée à survivre à l’arrivée des ordinateurs quantiques. Qui plus est, il faudra également corriger les failles de sécurité des technologies n’étant pas sous le contrôle d’autorités gouvernementales ou d’une seule entreprise. Contrairement aux technologies plus conventionnelles, il ne s’agit pas d’installer une simple mise à jour sur un serveur unique. Dans certains cas, il faudra repenser la structure même d’une technologie décentralisée, telle la chaîne de blocs. Faire le choix d’une technologie qui évolue La clé sera donc de choisir une technologie qui permettra aux entreprises de respecter leurs obligations en matière de sécurité dans un monde post-quantique, ou à tout le moins de choisir une architecture qui permettra une modernisation de ces algorithmes d’encryptage en temps opportun. Il faudra donc établir un dialogue entre informaticiens, mathématiciens, physiciens et … avocats! Lavery a mis sur pied le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) qui analyse et suit les développements récents et anticipés dans le domaine de l’intelligence artificielle d’un point de vue juridique. Notre Laboratoire s’intéresse à tous les projets relatifs à l’intelligence artificielle (IA) et à leurs particularités juridiques, notamment quant aux diverses branches et applications de l’intelligence artificielle qui feront rapidement leur apparition dans toutes les entreprises et les industries.   Communiqué de presse : IBM Makes Quantum Computing Available on IBM Cloud to Accelerate Innovation: https://www-03.ibm.com/press/us/en/pressrelease/49661.wss; voir aussi : Linke, Norbert M., et al. "Experimental comparison of two quantum computing architectures." Proceedings of the National Academy of Sciences (2017): 201618020. Chen, Lily, et al. Report on post-quantum cryptography. US Department of Commerce, National Institute of Standards and Technology, 2016. Aggarwal, Divesh, et al. "Quantum attacks on Bitcoin, and how to protect against them." arXiv preprint arXiv:1710.10377(2017). Il s’agit ici de l’acronyme des trois concepteurs de ce type d’encryptions, Rivest, Shamir et Adleman. Supra, note 2; voir aussi Dinh, Hang, Cristopher Moore, and Alexander Russell. "McEliece and Niederreiter cryptosystems that resist quantum Fourier sampling attacks." Annual Cryptology Conference. Springer, Berlin, Heidelberg, 2011

    Lire la suite
  • Intelligence artificielle, implantation et ressources humaines

    À l’ère d’une nouvelle révolution industrielle, surnommée industrie 4.0, les entreprises font face à des enjeux technologiques de taille. Certains parleront plutôt d’usine intelligente ou encore d’industrie du futur. Cette révolution est caractérisée par l’avènement de nouvelles technologies permettant, entre autres, une automatisation « intelligente » de l’activité humaine. Cette révolution technologique a notamment pour visée d’augmenter la productivité, l’efficience et la flexibilité des organisations. Il s’agit dans certains cas, d’un véritable bouleversement de la chaîne de valeurs de l’entreprise. L’intelligence artificielle est partie intégrante de cette nouvelle ère. Cette notion qui existe déjà depuis le milieu des années 1950 se définit comme étant la simulation de l’intelligence humaine par des machines1. L’intelligence artificielle vise à se substituer à presque toutes les tâches actuellement effectuées par des êtres humains, à les compléter ou à les amplifier2. Elle constitue en quelque sorte le concurrent tout désigné de l’être humain sur le marché de l’emploi. L’avènement dans les dernières années de l’apprentissage profond et d’autres techniques avancées d’apprentissage des machines et ordinateurs a permis de faire apparaître de nombreuses applications en milieu industriel qui ont le potentiel de révolutionner la manière d’organiser le travail dans les entreprises. On estime que l’intelligence artificielle pourrait contribuer à faire augmenter le PIB mondial de 14 % d’ici 2030 pour générer annuellement un potentiel de 15 700 milliards de dollars de gains pour l’économie mondiale3. Les gains en productivité au travail créés par l’intelligence artificielle pourraient représenter à eux seuls plus de la moitié de cette somme. Il va sans dire que le marché du travail devra assurément s’y adapter. D’ailleurs, une étude publiée il y a quelques années prédisait que d’ici 20 ans, près de 50 % des emplois aux États-Unis seraient, en partie ou en totalité, susceptibles d’être automatisés4. En 2016, une étude de l’OCDE concluait plutôt qu’en moyenne, dans les 21 pays de l’OCDE, plus ou moins 9 % des emplois seraient en totalité à haut risque d’automatisation5. Sans compter que certains auteurs vont même jusqu’à prétendre qu’environ 85 % des emplois qui seront exercés en 2030 n’existent pas encore aujourd’hui6! À tout le moins, ces données permettent de constater que les êtres humains demeureront indispensables, mais que le marché du travail sera grandement transformé par l’intelligence artificielle. Que ce soit en raison de la transformation de tâches, de la disparition d’emplois ou encore de la création de nouveaux métiers, des bouleversements sont à prévoir dans les milieux de travail et les entreprises devront y faire face. L’arrivée de l’intelligence artificielle semble donc être inévitable. Dans certains cas, cette technologie permettra de créer un avantage concurrentiel important. Les entreprises innovantes s’y démarqueront. Cependant, en plus des investissements majeurs qui seront nécessaires, l’implantation de ce nouvel outil technologique exigera du temps, des efforts et plusieurs changements dans les méthodes de travail. Implantation À titre d’entrepreneur, vous devrez nécessairement vous adapter à cette nouvelle réalité. Non seulement vos employés seront affectés par ce changement organisationnel, mais ils devront en être également les principaux acteurs afin d’assurer la réussite de l’opération. Au cours de l’exercice d’implantation, vous découvrirez peut-être que de nouvelles compétences sont désormais requises afin de s’ajuster à votre technologie. De plus, il y a de fortes probabilités que vous constatiez que certains de vos employés et gestionnaires adoptent une attitude réfractaire face à ce changement. Il s’agit là d’une réaction qui caractérise bien l’être humain, lequel a tendance à réagir négativement à tout type de changement. Cette réaction s’explique, entre autres, par le fait que toute modification dans un environnement de travail est susceptible d’entraîner un sentiment d’insécurité, exigeant que les employés adoptent de nouveaux comportements ou de nouvelles méthodes de travail7. Cela met en péril le réconfortant statu quo. Sachez que bien souvent, les craintes de vos employés seront alimentées par des perceptions erronées. Une réflexion s’impose donc, car il pourrait être sage de planifier les impacts potentiels avant même que votre nouvelle technologie atterrisse dans votre entreprise. À cet égard, on évalue le taux d’échec en matière de changement organisationnel à plus de 70 %. En ce qui a trait à l’implantation d’une nouvelle technologique, on estime que ce haut taux d’échec s’explique par le fait que l’aspect humain est souvent sous-estimé aux profits de l’aspect technique ou opérationnel que requiert l’implantation de la technologie8. Un échec peut amener des coûts plus élevés pour l’introduction de votre nouvel outil, des pertes de productivité ou tout simplement l’abandon complet de l’initiative. C’est pourquoi il vous faudra mettre une attention particulière sur la planification avant l’implantation de votre intelligence artificielle afin de bien déceler les enjeux liés à son intégration dans votre entreprise. Il sera important de confier l’implantation de cette technologie intelligente à des employés compétents qui partagent les valeurs de l’entreprise, afin d’éviter que le système implanté ne perpétue des comportements non désirables. Pour vous aider dans cette planification, voici quelques questionnements qui vous permettront d’entreprendre votre réflexion en la matière : Implantation Quel est l’objectif de la nouvelle technologie, ses avantages et inconvénients ? Quel gestionnaire sera responsable du projet ? Quelles compétences seront nécessaires pour implanter cette technologie dans l’organisation ? Quels employés seront responsables d’implanter la technologie ? Quelles informations et formations devront leur être données ? Organisation du travail Quelles tâches seront remplacées ou transformées par la nouvelle technologie et comment seront-elles transformées ? Quelles nouvelles tâches seront créées à la suite de l’arrivée de cette nouvelle technologie ? Y aura-t-il des abolitions de poste, des mouvements de main-d’oeuvre et des pertes d’emploi ? Quelles dispositions de la convention collective devront être respectées notamment en matière de mouvements de main-d’oeuvre, de mises à pied et de changement technologique ? Quels sont les préavis et les indemnisations à prévoir en cas de pertes d’emploi ? Quels postes devront être créés à la suite de l’arrivée de cette technologie ? Quelles sont les nouvelles compétences requises pour ces postes? Comment seront pourvus ces nouveaux postes et quand le seront-ils ? Comment les utilisateurs de cette technologie devront-ils être entraînés et formés ? Communication Qui sera responsable de la communication ? Devrez-vous mettre en place des outils de communication et un plan de communication ? Sous quelles formes se fera cette communication et à quelle fréquence ? Quand et comment les employés et gestionnaires seront-ils informés de l’arrivée de la nouvelle technologie, de l’objectif de cette implantation, ses avantages et les impacts pour l’organisation ? Quand et comment seront annoncés les pertes d’emploi, les mouvements de main-d’oeuvre et les nouveaux postes ? Quels seront les outils utilisés pour rassurer vos employés et éliminer les perceptions erronées ? Mobilisation Quels gestes et actions peuvent être pris pour assurer la mobilisation des employés et gestionnaires dans ce projet? Quelles seront les réactions probables au changement et comment pouvons-nous les atténuer ou les éliminer? Comment outiller les gestionnaires dans la gestion de ce changement? Évidemment, cette liste n’est pas exhaustive, mais elle peut vous servir de point de départ pour alimenter votre réflexion relativement aux impacts potentiels de votre nouvelle technologie intelligente sur vos employés. Rappelez-vous qu’une bonne gestion de la communication avec vos employés et la mobilisation de ceux-ci seront assurément des facteurs de réussite de ce changement technologique. Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) Lavery a mis sur pied le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) qui analyse et suit les développements récents et anticipés dans le domaine de l’intelligence artificielle d’un point de vue juridique. Notre Laboratoire s’intéresse à tous les projets relatifs à l’intelligence artificielle (IA) et à leurs particularités juridiques, notamment quant aux diverses branches et applications de l’intelligence artificielle qui feront rapidement leur apparition dans toutes les entreprises et les industries.   Encyclopédie Larousse en ligne. Spyros Makridakis, The Forthcoming Artificial Intelligence (AI) Revolution : Its Impact on Society and Firms, School of Economic Sciences and Business, Neapolis University Paphos, 2017. Sizing the prize, PWC, 2017. Carl Benedikt Frey and Michael A. Osborne,The future of employment: How susceptible are jobs to computarisation, Oxford University, 2013. Melanie Arntz, Terry Gregory, Ulrich Zierahn, The Risk of Automation for Jobs in OECD Countries, OECD Social, Employment and Migration Working Papers, 2016. Emerging Technologies’ Impact on Society & Work in 2030, Institute for the future and Dell Technologies, 2017. Simon L. Dolan, Éric Gosselin et Jules Carrière, Psychologie du travail et comportement organisationnel, 4e éd., Gaétan Morin Éditeur, 2012. Yves-Chantal Gagnon, Les trois leviers stratégiques de la réussite du changement technologique, Télescope - Revue d’analyse comparée en administration publique, École nationale d’administration publique du Québec, automne 2008.

    Lire la suite
  • La propriété intellectuelle de l’intelligence artificielle

    Bien que l’intelligence artificielle soit en constante évolution depuis quelques années, le droit peine parfois à s’y adapter. Les enjeux de propriété intellectuelle sont particulièrement importants : il faut en effet s’assurer que les entreprises qui investissent dans ces technologies puissent profiter pleinement de leurs retombées commerciales. Le présent bulletin constitue un survol des diverses formes de propriété intellectuelle qui peuvent s’avérer pertinentes en matière d’intelligence artificielle. Le premier réflexe de nombreux entrepreneurs est souvent de vouloir breveter leurs procédés d’intelligence artificielle. Toutefois, bien qu’il s’agisse d’un mode de protection qui puisse être envisagé dans certains cas, l’obtention d’un brevet ne constitue pas nécessairement la forme de protection la plus adaptée à l’intelligence artificielle ou aux technologies logicielles en général. En effet, depuis l’importante décision de la Cour suprême des États-Unis dans l’affaire Alice Corp. v. CLS Bank International 1, il est reconnu que le fait d’appliquer des idées abstraites à l’environnement informatique n’est pas suffisant pour transformer ces idées en objets brevetables. Par exemple, un brevet pourtant émis pour un système expert, constituant une forme d’intelligence artificielle, a été invalidé par les tribunaux américains à la suite de cette décision2. Au Canada, la jurisprudence n’a pas encore traité de cas spécifique aux systèmes d’intelligence artificielle. Par contre, nul doute que les principes dégagés par la Cour d’appel fédérale dans la décision Schlumberger Canada Ltd. c. Commissaire des brevets3 demeurent pertinents. Dans cette affaire, il a été décidé qu’un procédé permettant de recueillir, d’enregistrer et d’analyser des données à l’aide d’un ordinateur qui appliquait alors une formule mathématique ne pouvait faire l’objet d’un brevet. Par contre, dans une décision plus récente, la Cour en est venu à la conclusion qu’un procédé informatique pourrait être brevetable s’il “[...] ne constitue pas l’invention entière, mais seulement un élément essentiel parmi d’autres dans une nouvelle combinaison.”4 Il est donc à prévoir qu’un algorithme d’intelligence artificielle pris isolément ne pourra faire l’objet d’un brevet. Quant à l’Europe, en vertu de l’Article 52 de la Convention sur le brevet européen de 1973, les programmes d’ordinateurs ne sont pas brevetables. Il est donc impossible d’obtenir un brevet sous ce régime pour la programmation sous-jacente à un système d’intelligence artificielle Le droit d’auteur est peut-être la plus évidente des formes de propriété intellectuelle en ce qui concerne l’intelligence artificielle. En effet, les codes sources sont reconnus depuis longtemps comme étant des œuvres au sens de la Loi sur le droit d’auteur canadienne de même que par des lois similaires dans la plupart des pays. Certains pays ont même adoptés des lois s’appliquant précisément à la protection des logiciels5. Une décision canadienne plus ancienne présente en outre un intérêt : Apple Computer, Inc. c. Mackintosh Computers Ltd.6 On y indique qu’un algorithme incorporé dans un circuit ROM (read only memory) est considéré comme étant une œuvre protégée par le droit d’auteur. Une décision semblable avait été rendue aux États-Unis précédemment7. Dans le cas d’un système d’intelligence artificielle, ces décisions sont importantes en ce qu’elles étendent la protection du droit d’auteur non seulement au code étant programmé dans des langages de haut niveau ou sur des plateformes d’intelligence artificielles avancées, mais aussi au code objet en découlant, même sur un support électronique comme un circuit ROM. Le droit d’auteur ne protège toutefois pas les idées ou les principes généraux d’un code, mais bien leur expression. D’autre part, il ne faut pas sous-estimer la protection que confèrent les secrets industriels. Plus particulièrement, en matière d’informatique, rares sont les clients qui ont accès à l’ensemble du code source. De plus, les codes sources en matière d’intelligence artificielle sont d’une certaine complexité qui contribue à cette protection8. Il s’agit là d’une approche particulièrement intéressante pour les entreprises qui offrent des logiciels en tant que service à distance. En effet, dans un tel cas, les clients n’ont accès qu’à l’interface, mais jamais au code source ni même au code compilé. Il est presque impossible d’en faire une réelle ingénierie inversée. Toutefois, le risque encouru dans le cas où un système d’intelligence artificielle n’est protégé qu’en vertu de la notion de secret industriel est qu’une fuite originant d’un ou plusieurs employés permette à des concurrents de prendre connaissance du code source, de sa structure ou de ses particularités. On n’a qu’à s’imaginer comment il deviendrait difficile de rattraper une fuite de code source qui circulerait sur Internet. Il est bien sûr possible de faire signer des ententes de confidentialité, mais cela n’est malheureusement pas suffisant face à des employés de mauvaise foi ou l’espionnage industriel. Il est donc opportun de mettre en place des mesures de fractionnement des connaissances au sein de l’entreprise, de sorte que très peu d’employés aient accès à l’ensemble de l’information critique. Accessoirement, il pourrait être stratégique pour un fournisseur d’intelligence artificielle de s’assurer que ses clients mettent en évidence sa marque de commerce, à la manière de la stratégie de mise en marché coopérative “Intel Inside”, de façon à promouvoir son système auprès d’autres clients potentiels. Dans le cas des systèmes d’intelligence artificielle utilisés vendus dans un contexte commercial, il est également important de considérer la propriété intellectuelle sur les résultats de l’apprentissage des systèmes liés à l’utilisation qui en est faite. Il faut se demander si les bases de données qui sont générées par un système d’intelligence artificielle mis au point par un fournisseur de logiciel, à l’occasion de l’utilisation qu’en fait un de ses clients, appartiennent au fournisseur de logiciel ou à ce client. C’est souvent le contrat entre les parties qui régira cette situation. Toutefois, il peut être légitime pour une entreprise de vouloir conserver la propriété intellectuelle sur les bases de données qui sont générées par l’usage interne qu’elle fait du logiciel, notamment en lui soumettant ses données opérationnelles ou en « entraînant » le système d’intelligence artificielle au fil des interactions avec ses employés. Le fait de vouloir conserver la confidentialité de ces bases de données découlant de l’usage de l’intelligence artificielle permet de les assimiler à des secrets industriels. Toutefois, la question de savoir s’il s’agit d’œuvres au sens du droit d’auteur devra être déterminée au cas par cas. Il faudra, entre autres, tenter d’établir si ces bases de données résultent d’un exercice de talent et de jugement d’un ou plusieurs auteurs, comme le veut la jurisprudence canadienne à cet égard9. Alors que les situations où des employés « entraînent » un système d’intelligence artificielle semblent plus facilement assimilables à un exercice de talent et de jugement de leur part, celles où des bases de données sont constituées de manière autonome par le système risquent d’échapper au droit d’auteur, puisqu’il n’existe pas de droit d’auteur sur les données elles-mêmes10, mais bien sur leur analyse et leur compilation par un auteur. En effet, à toutes ces questions s’ajoute celle, plus prospective, des inventions créées par des systèmes d’intelligence artificielle. Déjà, des systèmes d’intelligence artificielle sont utilisés pour répertorier des domaines de recherche présentant des occasions d’innovation. Par exemple, des systèmes d’exploration des données (data mining) sont déjà utilisés pour analyser les textes des brevets, découvrir des champs de recherche émergents et même trouver des domaines conceptuels étant « disponibles » pour d’éventuels brevets11. Il est possible que les systèmes d’intelligence artificielle puissent être utilisés au cours des prochaines années pour rédiger des demandes de brevet de manière automatisée, notamment pour en rédiger les revendications12. L’intelligence artificielle pourrait-elle être titulaire de droits de propriété intellectuelle, par exemple sur des brevets ou des droits d’auteur ? Nous en doutons, car les lois actuelles attribuent des droits aux inventeurs et créateurs en tant que personnes physiques, du moins au Canada et aux États-Unis13. Mais alors, est-ce que la propriété intellectuelle de l’invention reviendrait aux concepteurs du système d’intelligence artificielle ? Nous ne croyons pas non plus que le droit soit bien adapté à cet égard, la propriété intellectuelle étant historiquement accordée aux personnes ayant fait preuve d’inventivité en matière de brevet ou de l’exercice d’un talent et de jugement en matière de droit d’auteur, selon le cas. On peut se demander si on verra un brevet invalidé ou une œuvre tomber dans le domaine public au motif qu’une portion substantielle en est générée par l’intelligence artificielle (ce qui n’est pas le cas de ce bulletin!). D’ici là, les juristes devront se familiariser avec les concepts sousjacents de l’intelligence artificielle, tout comme les informaticiens devront se familiariser avec ceux de la propriété intellectuelle. Pour les entrepreneurs qui conçoivent ou utilisent des systèmes d’intelligence artificielle, une réflexion constante sur la propriété intellectuelle s’impose pour protéger le fruit de leurs efforts. Lavery a mis sur pied le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) qui analyse et suit les développements récents et anticipés dans le domaine de l’intelligence artificielle d’un point de vue juridique. Notre Laboratoire s’intéresse à tous les projets relatifs à l’intelligence artificielle (IA) et à leurs particularités juridiques, notamment quant aux diverses branches et applications de l’intelligence artificielle qui feront rapidement leur apparition dans toutes les entreprises et les industries.   573 U.S._, 134 S. Ct. 2347 (2014). Vehicle Intelligence and Safety v. Mercedes-Benz, 78 F. Supp.3d 884 (2015), maintenue en appel Federal Circuit. No. 2015-1411 (U.S.). [1982] 1 C.F. 845 (C.A.F.). Canada (Procureur général) c. Amazon.com, inc., [2012] 2 RCF 459, 2011 CAF 328. À titre d’exemple, au Brésil : Lei do Software No. 9.609 du 19 février, 1998; en Europe : Directive 2009/24/CE concernant la protection juridique des programmes d’ordinateur. [1990] 2 RCS 209, 1990 CanLII 119 (CSC). Apple Computer, Inc. v. Franklin Computer Corp., 714 F.2d 1240 (3d Cir. 1983) (U.S.). Keisner, A., Raffo, J., & Wunsch-Vincent, S. (2015). Breakthrough technologies-Robotics, innovation and intellectual property (No. 30). World Intellectual Property Organization- Economics and Statistics Division. CCH Canadian Ltd. c. Law Society of Upper Canada, 2004 CSC 13, [2004] 1 RCS 339. Voir par exemple : Geophysical Service Incorporated c. Office Canada-Nouvelle-Écosse des hydrocarbures extracôtiers, 2014 CF 450. Voir par exemple : Lee, S., Yoon, B., & Park, Y. (2009). An approach to discovering new technology opportunities: Keyword-based patent map approach. Technovation, 29(6), 481-497; Abbas, A., Zhang, L., & Khan, S. U. (2014). A literature review on the state-of-theart in patent analysis. World Patent Information, 37, 3-13. A Hattenbach, B., & Glucoft, J. (2015). Patents in an Era of Infinite Monkeys and Artificial Intelligence. Stan. Tech. L. Rev., 19, 32. Supra, note 7.

    Lire la suite
  • Lorsque l’intelligence artificielle est discriminatoire

    L’intelligence artificielle a connu des avancées importantes depuis quelques années, notamment grâce aux avancées de ce que l’on nomme maintenant l’apprentissage profond (deep learning)1. Cette méthode est le prolongement des réseaux neuroniques qui sont utilisés depuis quelques années pour l’apprentissage des machines. L’apprentissage profond, comme toute forme d’apprentissage d’une machine, requiert que le système d’intelligence artificielle soit confronté à diverses situations afin d’apprendre à réagir à des situations présentant des similitudes à ces expériences antérieures. En entreprise, des systèmes d’intelligence artificielle sont notamment utilisés pour répondre aux besoins des clients, soit directement, soit en soutenant les employés dans leurs interventions. La qualité des services rendus par l’entreprise est donc de plus en plus tributaire de la qualité de ces systèmes d’intelligence artificielle. Il ne faut pas, toutefois, faire l’erreur de présumer qu’un tel système informatique s’acquittera automatiquement des tâches qui lui sont confiées sans faille et dans le respect des valeurs de l’entreprise ou de sa clientèle. Par exemple, des chercheurs de l’université Carnegie Mellon ont récemment démontré qu’un système devant présenter de la publicité ciblée à des usagers d’Internet offrait systématiquement moins de postes bien rémunérés aux femmes qu’aux hommes2. En d’autres termes, ce système avait un comportement que l’on pourrait qualifier de sexiste. Bien que les chercheurs n’aient pu identifier l’origine du problème, ils étaient d’avis qu’il s’agissait probablement d’une perte de contrôle du fournisseur de service de placement de publicité sur son système automatisé, et ils soulignaient les risques inhérents aux systèmes d’intelligence artificielle à grande échelle. Divers systèmes d’intelligence artificielle ont connu des ratés similaires, démontrant des comportements racistes et forçant même un exploitant à suspendre l’accès à son système3 À cet égard, l’Union Européenne a adopté en avril 2016 une règlementation relative au traitement de l’information personnelle qui, sauf dans certains cas précis, interdit la prise de décision automatisée basée sur certaines données à caractère personnel, dont « […] l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale, ainsi que le traitement des données génétiques, des données biométriques aux fins d’identifier une personne physique de manière unique, des données concernant la santé ou des données concernant la vie sexuelle ou l’orientation sexuelle d’une personne physique […] »4. Certains chercheurs s’interrogent d’ailleurs sur l’application de ce règlement, notamment alors que la discrimination apparaît de manière incidente, hors la volonté de l’exploitant du système d’intelligence artificielle5 Au Québec, on peut croire qu’une entreprise qui exploiterait un système d’intelligence artificielle discriminatoire au sens des lois applicables ou de la Charte des droits et libertés de la personne s’exposerait à des recours, même en l’absence de règlement précis comme celui de l’Union Européenne. En effet, le responsable du bien qu’est ce système d’intelligence artificielle pourrait voir sa responsabilité engagée à l’égard du préjudice ou du dommage causé par le fait autonome de ce bien. Qui plus est, le fait de ne pas mettre en place des mesures raisonnables pour éviter la discrimination serait fort probablement pris en compte dans l’analyse juridique d’une telle situation. Une vigilance particulière s’impose donc lorsque le fonctionnement d’un système d’intelligence artificielle repose sur des données déjà accumulées au sein de l’entreprise, des données de tiers (notamment ce qu’on désigne souvent comme le big data ), ou encore lorsque les données seront fournies au système d’intelligence artificielle par des employés de l’entreprise ou ses utilisateurs au cours d’une période « d’apprentissage ». Toutes ces sources de données, par ailleurs soumises aux obligations découlant des lois applicables à la protection des renseignements personnels, peuvent être biaisées à divers degrés. Les effets d’un échantillonnage biaisé ne sont pas nouveaux ni cantonnés au respect des droits de la personne. Il s’agit d’un effet bien connu des statisticiens. Pendant la Seconde Guerre mondiale, la marine américaine demanda à un mathématicien nommé Abraham Wald de leur fournir des statistiques sur les parties des avions bombardiers ayant été les plus touchés dans le but de renforcer le blindage à ces endroits. Wald démontra que les données sur les avions revenant de mission étaient biaisées, car elles ne tenaient pas compte des avions abattus en mission. Il ne fallait donc pas renforcer le blindage sur les parties où les avions revenant de mission étaient endommagés, mais plutôt aux endroits où ils n’étaient pas touchés. Dans le contexte de l’exploitation d’une entreprise, un système d’intelligence artificielle auquel on soumet des données biaisées pourrait ainsi prendre des décisions erronées, ayant des conséquences néfastes au point de vue humain, économique et opérationnel pour l’entreprise. Par exemple, si l’on soumet un tel système à un apprentissage encadré par des employés de l’entreprise, leur façon d’agir se reflétera sans doute dans son comportement ultérieur. Ceci peut se refléter dans les jugements portés par le système d’intelligence artificielle à l’égard de demandes de clients, mais aussi directement dans leur capacité de résoudre adéquatement les problèmes techniques qui lui sont soumis. On risque ainsi de perpétuer les comportements problématiques de certains employés. Des chercheurs du Machine Intelligence Research Institute ont proposé diverses approches pour minimiser les risques et rendre l’apprentissage machine d’un système d’intelligence artificielle conforme aux intérêts de son exploitant 6. Selon ces chercheurs, il pourrait notamment être opportun d’adopter une approche prudente quant aux objectifs imposés à de tels systèmes pour éviter qu’ils offrent des solutions extrêmes ou indésirables. Il serait en outre important d’établir des procédures de supervision informée, au moyen desquelles un opérateur peut s’assurer que le fonctionnement du système d’intelligence artificielle est, dans son ensemble, conforme aux attentes de son exploitant. De ce qui précède, il faut retenir qu’une entreprise qui désire intégrer un système d’intelligence artificielle dans ses opérations doit prendre très au sérieux la phase d’implantation, au cours de laquelle se déroulera l’apprentissage du comportement désiré par le système. D’une part, il sera important d’avoir des discussions approfondies avec le fournisseur sur le fonctionnement de sa technologie et ses performances, ainsi que d’encadrer contractuellement et le plus clairement possible les attentes de l’entreprise à l’égard du système qu’elle désire implanter. Il faut également prévoir comment s’effectuera l’intégration du système d’intelligence artificielle dans l’entreprise et s’assurer que cette intégration soit confiée à des employés et consultants dignes de confiance, possédant le plus haut niveau de compétence eu égard aux tâches pertinentes. Quant au fournisseur du système d’intelligence artificielle, il faudra généralement s’assurer que les données qui lui sont fournies ne sont pas biaisées, inexactes ou autrement altérées, de telle façon que les objectifs prévus au contrat quant aux performances souhaitées du système puissent raisonnablement être atteints, permettant ainsi de minimiser le risque de litiges devant les tribunaux découlant de comportements discriminatoires ou défaillants à d’autres égards du système d’intelligence artificielle. Non seulement de tels litiges pourraient-ils s’avérer onéreux, ils seraient de surcroît susceptibles d’entacher tant la réputation du fournisseur que celle du client utilisateur. LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444. Datta, A., Sen, S., & Zick, Y. (2016, May). Algorithmic transparency via quantitative input influence: Theory and experiments with learning systems. In Security and Privacy (SP), 2016 IEEE Symposium on (pp. 598-617). IEEE; Datta, A., Tschantz, M. C., & Datta, A. (2015). Voir aussi: Automated experiments on ad privacy settings. Proceedings on Privacy Enhancing Technologies, 2015(1), 92-112. Reese, H. (2016). Top 10 AI failures of 2016. Le cas de Tay, le système de Microsoft, a été abondamment discuté dans les médias. Règlement (UE) 2016/679 du parlement européen et du conseil du 27 avril 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données), art. 22. Goodman, B., & Flaxman, S. (2016, June). EU regulations on algorithmic decision-making and a “right to explanation”. In ICML Workshop on Human Interpretability in Machine Learning (WHI 2016). Taylor, J., Yudkowsky, E., LaVictoire, P., & Critch, A. (2016). Alignment for advanced machine learning systems . Technical Report 20161, MIRI.

    Lire la suite
  • Intelligence artificielle : la délicate interaction entre les défis juridiques et technologiques

    Existe-t-il un plus grand défi que celui d’écrire un article juridique sur une technologie émergente qui n’existe pas encore sous sa forme absolue ? L’intelligence artificielle, par l’intermédiaire d’un large éventail de branches et d’applications, aura des incidences sur divers domaines de la pratique du droit, dont l’éthique et l’intégrité en entreprise, la gouvernance, la distribution de produits et services financiers, la propriété intellectuelle, la protection de la vie privée et des informations, le droit du travail et de l’emploi, la responsabilité civile et contractuelle, de même que sur un nombre important d’autres disciplines du droit. Qu’est-ce que l’intelligence artificielle ? L’intelligence artificielle est (traduction libre) « la science combinée à l’ingénierie dans le cadre de la fabrication de machines intelligentes, particulièrement des logiciels intelligents »1. Essentiellement, le but de l’intelligence artificielle est de permettre aux machines d’imiter les fonctions « cognitives » de l’être humain, telles que l’apprentissage et la résolution de problèmes, de façon à ce qu’elles puissent exécuter des tâches qui sont normalement effectuées par des êtres humains. De façon pratique, les fonctionnalités de l’intelligence artificielle dépendent souvent de l’accès à des quantités colossales de données (« mégadonnées ») par l’intermédiaire de certains algorithmes et de la capacité de traitement de celles-ci. Tel qu’il est souligné dans un rapport publié par McKinsey & Company en 2015 sur les technologies révolutionnaires (traduction libre) « [d]es technologies importantes peuvent être mises au point dans n’importe quel secteur ou provenir de n’importe quelle discipline scientifique, mais elles partagent quatre caractéristiques : la grande rapidité des changements technologiques, un potentiel de vaste portée des impacts, des enjeux financiers importants et un fort potentiel pour une incidence économique perturbatrice »2. En marge du débat intéressant concernant l’incidence possible de l’intelligence artificielle sur l’humanité3, son perfectionnement à été mis sur la voie rapide dans les dernières années et nous avons assisté à plusieurs percées importantes. En mars 2016, le logiciel AlphaGo de Google a battu Lee Sedol, champion mondial de Go, par une marque de 4 à 1 à cet ancien jeu de société chinois. Ces percées ont ravivé l’intérêt des communautés d’affaires pour l’intelligence artificielle. Des géants de la technologie tels que Google et Microsoft, pour n’en nommer que quelques-uns, ont accéléré leurs investissements dans la recherche et l’amélioration de systèmes reposant en partie sur l’intelligence artificielle. Le présent article aborde certaines facettes de l’intelligence artificielle d’un point de vue juridique et traite de certains domaines du droit qui devront s’adapter aux défis complexes résultant des nouveautés actuelles et à venir en matière d’intelligence artificielle. Défis juridiques certains Les incidences possibles de l’intelligence artificielle ont été maintes fois comparées à celles de la révolution industrielle, c’est-à-dire une forme de transition vers de nouveaux processus de fabrication utilisant de nouveaux systèmes, de même que l’usage accru d’applications et des machines innovantes. Domaine de la santé L’intelligence artificielle est certes promise à un bel avenir dans le secteur des soins de santé. Les applications d’intelligence artificielle capables d’analyser des tonnes de données dans un délai record peuvent faire de ces applications des outils puissants permettant de prédire, par exemple, le succès de certains médicaments et d’aider les patients à trouver la bonne dose de médicaments compte tenu de multiples facteurs. Récemment, la société IBM a confirmé que son programme IBM Watson Health « est capable de comprendre et d’extraire de l’information clé en consultant des millions de pages de littérature scientifique médicale pour ensuite visualiser des relations entre les médicaments et d’autres maladies potentielles »4. D’autres applications de l’intelligence artificielle peuvent également aider à vérifier si un patient a pris ses comprimés au moyen d’un téléphone intelligent qui capte et analyse les signes ou les effets confirmant que le médicament a bel et bien été ingéré. En plus des préoccupations visant la protection de la vie privée et des informations personnelles, qui constituera inévitablement un enjeu complexe, les plateformes d’intelligence artificielle dans le domaine de la santé pourraient soulever des défis juridiques importants, notamment au niveau de la responsabilité civile et contractuelle. Si un médecin ou un patient suit les recommandations effectuées par un système d’intelligence artificielle et que ces recommandations s’avèrent erronées, qui en sera tenu responsable en dernier ressort ? L’intelligence artificielle soulève donc des questions juridiques légitimes et complexes dans le domaine de la santé, combinées à des préoccupations de nature technologique touchant la fiabilité des logiciels, plateformes et autres programmes d’intelligence artificielle ainsi que la façon dont les professionnels, employés et autres intervenants utiliseront ces applications dans le cadre de leurs tâches et responsabilités quotidiennes. Services à la clientèle Plusieurs systèmes et logiciels ont été créés au cours des dernières années pour tenir une conversation ou autrement interagir avec les gens, que ce soit sous forme vocale ou celle de messages textes. Les entreprises utilisent ces logiciels dans le cadre de la prestation de services à leurs clients ou à des fins de divertissement, par exemple, dans des plateformes telles que Facebook, Messenger et Snapchat. Bien que ces logiciels ne soient pas nécessairement des applications absolues d’intelligence artificielle, quelques-unes de leurs caractéristiques courantes ou en voie de perfectionnement sont considérées comme de l’intelligence artificielle. Lorsque ces logiciels sont utilisés pour conclure des contrats (aux fins, par exemple, d’effectuer des achats ou de passer des commandes ou encore de confirmer un consentement), il est important de s’assurer que les modalités applicables à ces contrats ou, le cas échéant, un avis d’exclusion de responsabilité valide soient communiqués à l’utilisateur. Cette utilisation de logiciels et de systèmes d’intelligence artificielle soulèvera inévitablement des questions intéressantes quant à la formation du contrat, sa nature et ses effets. Secteur financier et technologies financières (ou « fintech ») On remarque une recrudescence importante des activités de recherche et de développement dans les domaines de la robotique, de l’informatique et des technologies en lien avec les services financiers et des fintech. Les applications de l’intelligence artificielle dans ce domaine varient grandement et incluent l’analyse comportementale des clients et des investisseurs ainsi que l’analyse de multiples mégadonnées visant à améliorer la compréhension des consommateurs et des investisseurs, les stratégies de placements et l’utilisation des instruments dérivés. Les défis juridiques que présente l’intelligence artificielle au coeur des secteurs financiers et économiques pourraient découler, par exemple, des conséquences du mauvais fonctionnement d’algorithmes. Dans un tel cas, la relation constante entre l’intervention humaine et les systèmes d’intelligence artificielle, notamment dans le cadre d’une plateforme de négociation de titres ou d’actions, devra être analysée et administrée soigneusement de façon à éviter certains risques juridiques ou, à tout le moins, les confiner à certains aspects plus spécifiques. Véhicules autonomes Les véhicules autonomes sont également désignés des voitures sans conducteur, bien qu’en pratique les véhicules autorisés à circuler sur la voie publique ne soient pas complètement autonomes. En juin 2011, l’État du Nevada devenait un des premiers territoires au monde à permettre que des véhicules autonomes circulent sur la voie publique. En vertu des lois du Nevada, un véhicule autonome est un (traduction libre) « véhicule qui est doté d’intelligence artificielle et de technologie permettant au véhicule d’exécuter toutes les opérations mécaniques associées à la conduite sans le contrôle actif ou la surveillance continue d’une personne physique »5. Le Canada n’a toujours pas adopté de loi pour encadrer de telles voitures sans conducteur bien que plusieurs discussions ont cours à ce sujet. Parmi les importants défis juridiques qui se posent à l’égard des véhicules autonomes, soulignons les multiples questions de responsabilité et d’assurance. En effet, lorsqu’une voiture se déplace sans conducteur et qu’un accident survient, qui devrait être tenu responsable ? (pour consulter un exposé sur ce sujet dans le cadre du droit du Québec, veuillez vous reporter au bulletin Le Droit de savoir, « La conduite des voitures autonomes au Québec : plusieurs questions demeurent », par Léonie Gagné et Élizabeth Martin-Chartrand). Nous anticipons également que des arguments intéressants seront débattus relativement aux voitures sans conducteur dans le cadre d’activités commerciales dans le domaine des transports, notamment l’envoi et la livraison de marchandises commerciales. Responsabilité civile et contractuelle La nature fondamentale des technologies de l’intelligence artificielle constitue un défi en soi en matière de responsabilité contractuelle et extra-contractuelle. Lorsqu’une machine prend, ou prétend pouvoir prendre des décisions autonomes sur la foi de données à la fois fournies par ses utilisateurs et acquises de façon autonome par la machine, son rendement ainsi que les résultats finaux pourraient s’avérer imprévisibles. Ayant ce contexte à l’esprit, la lecture du Livre Cinquième du Code civil du Québec sur les obligations nous apporte un certain nombre de réflexions juridiques intéressantes eu égard aux nouveautés anticipées en matière d’intelligence artificielle : L’article 1457 du Code civil du Québec (CCQ) énonce que : « Toute personne a le devoir de respecter les règles de conduite qui, suivant les circonstances, les usages ou la loi, s’imposent à elle, de manière à ne pas causer de préjudice à autrui. Elle est, lorsqu’elle est douée de raison et qu’elle manque à ce devoir, responsable du préjudice qu’elle cause par cette faute à autrui et tenue de réparer ce préjudice, qu’il soit corporel, moral ou matériel. Elle est aussi tenue, en certains cas, de réparer le préjudice causé à autrui par le fait ou la faute d’une autre personne ou par le fait des biens qu’elle a sous sa garde. » L’article 1458 du CCQ énonce en outre que : « Toute personne a le devoir d’honorer les engagements qu’elle a contractés. Elle est, lorsqu’elle manque à ce devoir, responsable du préjudice, corporel, moral ou matériel, qu’elle cause à son cocontractant et tenue de réparer ce préjudice; ni elle ni le cocontractant ne peuvent alors se soustraire à l’application des règles du régime contractuel de responsabilité pour opter en faveur de règles qui leur seraient plus profitables. » Aux termes de l’article 1465 du CCQ, « Le gardien d’un bien est tenu de réparer le préjudice causé par le fait autonome de celui-ci, à moins qu’il prouve n’avoir commis aucune faute. » Les questions entourant les dommages prévisibles ou directs, selon le régime de responsabilité applicable, ou encore découlant du « fait autonome » d’un bien considéré comme un produit d’intelligence artificielle vont inévitablement soulever des débats intéressants dans le contexte de la mise au point des applications d’intelligence artificielle dans un avenir très rapproché. Dans quelles circonstances les concepteurs ou fournisseurs d’applications d’intelligence artificielle, les utilisateurs et les autres parties bénéficiant de ces applications engageront-ils leur responsabilité à l’égard des résultats dérivant de celles-ci ou de l’utilisation de ces résultats par diverses personnes ? Encore ici, l’interaction entre l’intervention humaine et les systèmes d’intelligence artificielle (ou l’absence d’une telle interaction dans certains cas!) dans le cadre des diverses étapes associées à la production de biens ou la fourniture de services jouera un rôle déterminant dans la façon dont cette responsabilité sera établie. Parmi les questions demeurant sans réponse en matière de responsabilité, est-ce que les systèmes autonomes utilisant des applications d’intelligence artificielle pourraient à un certain moment être tenus « personnellement » responsables des conséquences de leurs gestes? Et dans quelles situations le législateur devra-t-il combler certains vides juridiques découlant de l’absence de règles claires qui risquent de compromettre les droits et les obligations de toutes les parties qui interagissent avec l’intelligence artificielle ? Plusieurs parallèles pourront être établis avec d’autres situations menant à la détermination de la responsabilité civile ou contractuelle des personnes. Notre jurisprudence a traité des cas de toute sorte dans ce domaine, mais force est de constater que les caractéristiques propres aux produits d’intelligence artificielle susciteront leur lot de réflexions complexes dans ce domaine. Il est intéressant de rappeler qu’en janvier 2017, la Commission des affaires juridiques de l’Union européenne a soumis une proposition par laquelle elle demande l’adoption de lois traitant de questions liées à la robotique. Dans le cadre des recommandations de la Commission, une réforme du droit de la responsabilité a été considérée comme essentielle. Il fut en effet recommandé que (traduction libre) « le futur texte législatif devrait prévoir des dispositions imposant l’application de la responsabilité stricte, faisant en sorte que tout ce qui devrait être prouvé est qu’un dommage est survenu, de même que le lien de causalité entre l’acte dommageable d’un robot et le dommage causé à la partie lésée »6. La Commission suggère en outre que le Parlement Européen étudie la possibilité d’imposer un régime d’assurance obligatoire ou l’établissement d’un fonds de compensation pour assurer que les victimes de système robotiques soient dédommagées. Que nous réserve l’avenir en matière d’intelligence artificielle ? À une époque où les chercheurs, les développeurs et les scientifiques effectuent des percées dans le domaine de l’intelligence artificielle à une vitesse incroyable et ce, dans divers domaines et sciences, appuyés dans plusieurs cas par des fonds et des subventions des gouvernements, certains concepts juridiques devront inévitablement être adaptés pour faire face aux défis que ces percées amèneront. Il est essentiel d’être conscient des risques juridiques associés aux importantes percées dans le domaine de l’intelligence artificielle et de prendre des décisions éclairées dans le cadre de la gestion du développement et de l’utilisation de l’intelligence artificielle. L’intelligence artificielle devra apprendre à écouter, à comprendre et à distinguer de multiples concepts et idées, même sans le soutien d’opinions prédéfinies ou de balises formelles, de façon à acquérir des capacités d’anticipation et d’autres fonctions cognitives de la même façon que le font les êtres humains (même si d’aucuns pourraient prétendre que l’écoute et la compréhension demeurent des tâches difficiles même pour les humains….). À un certain moment dans leur évolution, les systèmes d’intelligence artificielle prendront leur élan et cet élan s’accélérera lorsque deux systèmes ou plus d’intelligence artificielle combineront leurs fonctionnalités pour créer un système « supérieur » d’intelligence artificielle. La grande question est donc de savoir qui entreprendra avec succès cette combinaison astucieuse de deux systèmes ou plus, nous les humains ou les systèmes d’intelligence artificielle eux-mêmes ? John McCarthy, What is artificial intelligence?, Stanford University. Disruptive technologies: Advances that will transform life, business, and the global economy, McKinsey Global Institute, May 2013. Alex Hern, Stephen Hawking: AI will be “either best or worst thing” for humanity, theguardian. Engene Borukhovich, How will artificial intelligence change healthcare?, World Economic Forum. Nevada Administrative Code Chapter 482A-Autonomous Vehicles, NAC 482A.010. Committee on Legal Affairs, Draft report with recommendations to the Commission on Civil Law Rules on Robotics, article 27. (2015/2103 (INL)).

    Lire la suite
  • Des voitures autonomes sur les routes sous peu à Montréal

    Les voitures autonomes connaissent un réel essor depuis les dernières années, notamment en raison de l’intérêt qui leur est porté tant par les consommateurs que par les entreprises qui les mettent au point et les perfectionnent. Dans ce contexte, la Ville de Montréal et le Gouvernement du Québec ont annoncé respectivement les 5 et 10 avril derniers d’importants investissements dans le secteur de l’électrification et des transports intelligents de manière à faire du Québec un pionnier de ce secteur. Investissements de la Ville de Montréal et du Gouvernement du Québec La Ville de Montréal prévoit investir 3,6 M$ pour la création de l’Institut de l’électrification et des transports intelligents. La création de cet organisme s’inscrit dans le cadre de la Stratégie d’électrification des transports adoptée dans un contexte de lutte aux changements climatiques et d’innovation, et fait partie des dix orientations stratégiques qu’elle propose. La Ville de Montréal explique que « l’Institut misera sur la collaboration des partenaires, dont les universités et le Quartier de l’innovation, et sur la disponibilité de terrains à proximité du centre-ville, afin de créer un lieu de calibre mondial pour développer, expérimenter et promouvoir les innovations et les nouveaux concepts en matière de transport électrique et intelligent. »1 L’Institut a notamment comme mission la création d’un corridor d’essai et d’une zone d’expérimentation dans le centre-ville de Montréal pour la conduite des voitures autonomes. De plus, un projet de navettes autonomes est déjà en branle, dans le cadre duquel seront utilisés des minibus « Arma » conçus par l’entreprise Navya, partenaire du Groupe Keolis. Ces véhicules ont un degré d’automatisation de niveau 5, c’est-à-dire qu’ils sont complètement automatisés. Le premier essai routier est prévu dans le cadre du Sommet mondial des transports publics de l’Union internationale des transports publics (UITP) qui se tiendra à Montréal du 15 au 17 mai prochains. Pour sa part, le Gouvernement du Québec s’engage à investir 4,4 M$ « pour soutenir la grappe industrielle des véhicules électriques et intelligents »2 qui sera constituée au printemps 2017 et dont le plan d’affaires sera établi par un comité consultatif provincial mis sur pied à cette fin. « La grappe contribuera à positionner le Québec parmi les leaders mondiaux du développement des modes de transport terrestre et de leur transition vers le transport tout électrique et intelligent », a affirmé la ministre de l’Économie, de la Science et de l’Innovation et ministre responsable de la Stratégie numérique, Dominique Anglade. Enjeux concernant la conduite des voitures autonomes au Québec Les voitures intelligentes ont fait leur entrée sur le marché québécois et s’y sont taillé une place au cours des dernières années. Ces voitures sont qualifiées de voitures autonomes lorsqu’elles possèdent un degré d’automatisation d’au minimum dit « conditionnel », communément désigné de niveau 3 sur l’échelle des degrés d’automatisation3. Ce niveau d’automatisation permet une conduite dynamique du véhicule par son système de contrôle, mais requiert toutefois que le conducteur demeure disponible. Selon la Loi sur l’assurance automobile du Québec4, le propriétaire d’un véhicule est tenu responsable des dommages matériels causés par son véhicule, sauf exception. Cette loi prévoit également un régime de responsabilité sans faute permettant aux victimes d’un accident de voiture de réclamer une indemnité pour le préjudice corporel subi. Quant au Code de la sécurité routière5, celui-ci régit entre autres l’utilisation des véhicules sur les chemins publics. À notre connaissance, aucune modification législative n’est présentement proposée pour combler ce vide juridique avant l’arrivée de voitures autonomes sur les routes du Québec. À cet effet, il convient de rappeler que l’Ontario a récemment comblé ce flou juridique par l’entrée en vigueur du Règlement 306/156 déterminant qui peut conduire les voitures autonomes sur les routes ontariennes et dans quel contexte. Commentaire Plusieurs questions demeurent en suspens quant à la teneur des projets et initiatives annoncés récemment par la Ville de Montréal et le Gouvernement du Québec. Ce manque d’information crée une incertitude quant à l’étendue d’une réglementation spécifique à la conduite des voitures autonomes au Québec devant possiblement être adoptée. Par ailleurs, Mme Elsie Lefebvre, conseillère associée à la Ville de Montréal, responsable de la Stratégie de l’électrification des transports, a déclaré qu’« il y aura des balises et [que] les projets seront encadrés pour qu’il n’y ait aucun danger sur la route », sans toutefois préciser l’étendue de ces mesures. Dans la foulée de ces annonces, plusieurs questions méritent d’être discutées. Quel sera le degré d’automatisation des voitures autonomes autorisées à rouler au Québec? Qui conduira ces véhicules et qui les assurera? Des permis spéciaux devront-ils être délivrés? Ces véhicules pourront-ils être conduits sur les chemins publics ou exclusivement sur des circuits fermés? Dans l’éventualité d’un accident, qui en sera tenu responsable? Quelles seront les mesures législatives adoptées pour encadrer adéquatement l’usage de ces voitures? Bien des questions demeurent et peu de réponses nous sont offertes pour l’instant. C’est à suivre… Stratégie d’électrification des transports 2016-2020, publiée par la Ville de Montréal. GOUVERNEMENT DU QUÉBEC, Fil d’information – « Québec annonce 4,4 millions de dollars pour soutenir la grappe industrielle des véhicules électriques et intelligents », en ligne. Voir le bulletin Le Droit de Savoir, « La conduite des voitures autonomes au Québec : plusieurs questions demeurent » pour plus de détails. Loi sur l’assurance automobile du Québec, R.L.R.Q., c. A-25. Code de la sécurité routière, R.L.R.Q., c. C-24.2, art. 1. Pilot Project – Automated Vehicules, O Reg 306/15.

    Lire la suite
  • Intelligence artificielle : les obligations contractuelles au-delà de l’expression à la mode

    Est-ce qu’un ordinateur peut apprendre et être intelligent ? Dans l’affirmative, quelles sont les limites des tâches qu’on peut lui confier ? Ces questions ont fait l’objet d’innombrables débats depuis au moins aussi longtemps que la publication d’Alan Turing sur les nombres calculables en 19371. De nombreux chercheurs se sont consacrés à développer des méthodes permettant aux ordinateurs d’interagir plus facilement avec les êtres humains et d’intégrer des processus leur servant à apprendre des situations qui se sont présentées. En quelque sorte, on souhaite permettre à la machine de penser et de réagir comme le ferait un être humain. Dès le début des années 1960, Marvin Minsky, célèbre chercheur du MIT, répertoriait ce qu’il considérait comme les étapes devant mener au développement d’une intelligence artificielle2. La puissance des ordinateurs récents ainsi que la capacité d’emmagasiner des quantités phénoménales d’information permettent aujourd’hui d’intégrer l’intelligence artificielle en entreprise et dans la vie quotidienne, souvent sous les vocables d’apprentissage automatique (machine learning), d’exploration des données (data mining) ou d’apprentissage profond (deep learning) – cette dernière forme ayant connu un développement fulgurant au cours des dernières années3. L’utilisation de l’intelligence artificielle en entreprise soulève toutefois de nombreuses questions juridiques. Ces enjeux sont d’importance capitale lorsque des entreprises concluent des contrats pour offrir ou recevoir des produits et services dans le domaine de l’intelligence artificielle. En matière contractuelle, il est important de bien encadrer les obligations de chaque partie ainsi que leurs attentes. Pour les fournisseurs de produits d’intelligence artificielle, un enjeu important est la responsabilité qu’ils encourent en cas de dysfonctionnement de leurs produits. À titre d’exemple, est-ce que les concepteurs d’un système d’intelligence artificielle pour l’aide à la décision dans un contexte médical peuvent être tenus responsables, directement ou indirectement, de l’erreur médicale découlant d’informations ou de suggestions erronées données par ce système ? Il peut être opportun de s’assurer que les contrats exigent spécifiquement des professionnels utilisant de tels systèmes qu’ils exercent un certain contrôle sur les résultats, que ce soit en médecine, en ingénierie ou en gestion des affaires. En contrepartie, les entreprises qui désirent utiliser de tels produits doivent encadrer clairement les objectifs qu’ils souhaitent ainsi atteindre. Il ne s’agit pas là d’une simple question de performance du système d’intelligence artificielle, mais aussi de prévision de ce qui constituerait une défaillance des produits et ses conséquences juridiques. Par exemple, l’utilisation d’intelligence artificielle dans la gestion de la production d’une entreprise doit-elle permettre une augmentation du rendement ou une diminution de certains problèmes ? Qu’arrive-t-il si les performances souhaitées ne sont pas atteintes ? Un autre enjeu important est la propriété intellectuelle des données intégrées et générées par le produit d’intelligence artificielle. Plusieurs systèmes d’intelligence artificielle nécessitent l’utilisation d’un grand volume de données de l’entreprise afin que ces systèmes acquièrent l’« expérience » nécessaire à leur apprentissage. Toutefois, à qui appartiennent ces données et à qui appartiendront les résultats de cet apprentissage par le système d’intelligence artificielle ? Par exemple, pour qu’un système d’intelligence artificielle puisse devenir performant, une entreprise pourrait se voir obligée de lui soumettre une grande quantité de données et d’investir des ressources humaines ainsi que financières considérables pour guider son apprentissage. Est-ce que le fournisseur du système d’intelligence artificielle acquiert des droits sur ces données ? Est-ce qu’il peut se servir de l’apprentissage de son système d’intelligence artificielle dans une entreprise pour en faire bénéficier ses autres clients? Dans des cas extrêmes, cela pourrait faire en sorte que l’expérience acquise par un système au sein d’une entreprise bénéficie aux compétiteurs de cette dernière. Lorsque le système d’intelligence artificielle est utilisé dans des applications visant des consommateurs ou les employés d’une entreprise, il ne faut pas négliger non plus les enjeux liés à la confidentialité des données utilisées par le système d’intelligence artificielle et à la protection de la vie privée de ces personnes. Il s’agit là d’autant d’enjeux qui doivent être encadrés au point de vue contractuel avant que les problèmes ne surviennent. Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) Nous anticipons que d’ici quelques années, toutes les sociétés, entreprises et organisations, dans toutes les sphères d’activités et tous les secteurs, feront appel à certaines formes d’intelligence artificielle dans leurs activités courantes, qu’il s’agisse d’améliorer la productivité ou l’efficacité, d’assurer un meilleur contrôle de la qualité, de conquérir de nouveaux marchés et clients, de mettre en place de nouvelles stratégies marketing, d’améliorer les processus, l’automatisation et la commercialisation ou encore la rentabilité de l’exploitation. Pour cette raison, Lavery a mis sur pied le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) qui analyse et suit les développements récents et anticipés dans le domaine de l’intelligence artificielle d’un point de vue juridique. Notre Laboratoire s’intéresse à tous les projets relatifs à l’intelligence artificielle (IA) et à leurs particularités juridiques, notamment quant aux diverses branches et applications de l’intelligence artificielle qui feront rapidement leur apparition dans les entreprises et les industries. Les développements de l’intelligence artificielle, à travers un large éventail de fonctionnalités et d’applications, auront également un impact certain sur plusieurs secteurs et pratiques du droit, de la propriété intellectuelle à la protection des renseignements personnels, en passant par la régie d’entreprise et tous les volets du droit des affaires. Dans nos prochaines publications, l’équipe de notre Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) analysera de façon plus spécifique certaines applications de l’intelligence artificielle dans différents secteurs. Turing, A. M. (1937). On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London mathematical society, 2(1), 230-265. Minsky, M. (1961). Steps toward artificial intelligence. Proceedings of the IRE, 49(1), 8-30. Voir notamment : LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.

    Lire la suite
  • Budget 2017 du Canada et intelligence artificielle : votre entreprise est-elle prête?

    Le Budget du 22 mars 2017 du Gouvernement du Canada, dans son « Plan pour l’innovation et les compétences » (http://www.budget.gc.ca/2017/docs/plan/budget-2017-fr.pdf) mentionne que le leadership démontré par le milieu universitaire et celui de la recherche au Canada dans le domaine de l’intelligence artificielle se traduira par une économie plus innovatrice et une croissance économique accrue. Le budget 2017 propose donc de fournir un financement renouvelé et accru de 35 millions de dollars sur cinq ans, à compter de 2017-2018, pour l’Institut canadien de recherches avancées (ICRA), qui jumelle les chercheurs canadiens à des réseaux de recherche en collaboration dirigés par d’éminents chercheurs canadiens et internationaux pour effectuer des travaux sur des sujets qui touchent notamment l’intelligence artificielle et l’apprentissage profond (deep learning). Ces mesures s’ajoutent à plusieurs mesures fiscales fédérales et provinciales intéressantes qui appuient déjà le secteur de l’intelligence artificielle. Au Canada et au Québec, le programme de recherche scientifique et développement expérimental (RS&DE) procure des avantages à deux volets : les dépenses de RS&DE sont déductibles du revenu aux fins de l’impôt et un crédit d’impôt à l’investissement (CII) pour la RS&DE est offert pour réduire l’impôt. Le solde du CII est remboursable dans certains cas. Au Québec, un crédit d’impôt remboursable est également disponible pour le développement des affaires électroniques lorsqu’une société exerce principalement ses activités dans les domaines de la conception de systèmes informatiques ou de l’édition de logiciels et qu’elles sont effectuées dans un établissement situé au Québec. Ce Budget 2017 vise donc à rehausser l’avantage concurrentiel et stratégique du Canada en matière d’intelligence artificielle, et par le fait même celui de Montréal, une ville qui jouit déjà d’une réputation internationale dans ce domaine. Il reconnaît d’entrée de jeu que l’intelligence artificielle, au-delà de toutes les questions d’éthique qui passionnent actuellement la communauté internationale, pourrait permettre de générer une croissance économique solide en améliorant la façon de produire des biens, d’offrir des services et de surmonter divers défis de société. Le Budget ajoute également que l’intelligence artificielle « offre des possibilités dans de nombreux secteurs, de l’agriculture aux services financiers, créant des occasions pour les entreprises de toutes tailles, que ce soit des entreprises technologiques en démarrage ou les plus importantes institutions financières du Canada. » Ce rayonnement du Canada sur la scène internationale passe invariablement par un appui gouvernemental aux programmes de recherche et à l’expertise de nos universités. Ce Budget est donc un pas dans la bonne direction pour faire en sorte que toutes les activités reliées à l’intelligence artificielle, de la R&D à la mise en marché en passant par la création et la distribution des produits et services, demeurent ici au Canada. Le budget 2017 attribue ainsi 125 millions de dollars au lancement d’une stratégie pancanadienne en matière d’intelligence artificielle pour la recherche et le talent afin de favoriser la collaboration entre les principaux centres canadiens d’expertise et renforcer le positionnement du Canada en tant que destination de calibre mondial pour les entreprises désirant investir dans l’intelligence artificielle et l’innovation. Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) Nous anticipons que d’ici quelques années, toutes les sociétés, entreprises et organisations, dans toutes les sphères d’activités et tous les secteurs, feront appel à certaines formes d’intelligence artificielle dans leurs activités courantes, qu’il s’agisse d’améliorer la productivité ou l’efficacité, d’assurer un meilleur contrôle de la qualité, de conquérir de nouveaux marchés et clients, de mettre en place de nouvelles stratégies marketing, d’améliorer les processus, l’automatisation et la commercialisation ou encore la rentabilité de l’exploitation. Pour cette raison, Lavery a mis sur pied le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) qui analyse et suit les développements récents et anticipés dans le domaine de l’intelligence artificielle d’un point de vue juridique. Notre Laboratoire s’intéresse à tous les projets relatifs à l’intelligence artificielle (IA) et à leurs particularités juridiques, notamment quant aux diverses branches et applications de l’intelligence artificielle qui feront rapidement leur apparition dans les entreprises et les industries. Les développements de l’intelligence artificielle, à travers un large éventail de fonctionnalités et d’applications, auront également un impact certain sur plusieurs secteurs et pratiques du droit, de la propriété intellectuelle à la protection des renseignements personnels, en passant par la régie d’entreprise et tous les volets du droit des affaires. Dans nos prochaines publications, l’équipe de notre Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) analysera de façon plus spécifique certaines applications de l’intelligence artificielle dans différents secteurs.

    Lire la suite
1 2 3