La conduite autonome est autorisée en France

Proposé par
le

La conduite autonome de niveau 3 est autorisée en France depuis le 14 juillet 2022, ainsi que dans 52 autres pays européens. On pourra donc bientôt regarder un film tout en conduisant, mais seulement à 60 km/h et sur les 2x2 voies séparées par un terre plein central. En cas d'accident durant un épisode de conduite autonome, c'est l'IA embarquée qui portera la responsabilité.

C'est pourquoi une boite noire est automatiquement montée sur ces véhicules depuis le 1er mai 2022. Elle enregistre en permanence les données de circulation et celles relatives au véhicule. La conduite autonome va probablement radicalement réduire les accidents de la route, ainsi que la consommation de carburant : on estime que 5% de véhicules autonomes dans une circulation pourrait réduire la congestion et donc la consommation de 40% dans certaines zones.


Commentaires préférés (3)

Est-ce qu'elle vas quand même chercher à éviter un accident si sa responsabilité n'est pas engagé ?
L'enregistrement des données de la boîte noire comporte t'il un enregistrement audio et vidéo de ce qu'il se passe à l'intérieur du véhicule?
Si l'IA est déclarer responsable, aucune peine ne lui sera fourni. Est ce que c'est le programmateur qui risque dalles en prison? Ou ça va juste être une amende pour l'entreprise alors que son robot aura pris des vies ?

Suis super content, c’est ma première publication ! Bonne journée à toutes et tous

a écrit : Est-ce qu'elle vas quand même chercher à éviter un accident si sa responsabilité n'est pas engagé ?
L'enregistrement des données de la boîte noire comporte t'il un enregistrement audio et vidéo de ce qu'il se passe à l'intérieur du véhicule?
Si l'IA est déclarer responsabl
e, aucune peine ne lui sera fourni. Est ce que c'est le programmateur qui risque dalles en prison? Ou ça va juste être une amende pour l'entreprise alors que son robot aura pris des vies ? Afficher tout
Il y a pleins de question passionnante d'ordre philosophique, éthique et technologique avec ses technologies.

Comment faire agir l'IA dans des situations d'urgences ?
-Choisir entre sauver le conducteur, ou un piéton.
-Minimiser les pertes humaines ou minimiser les pertes matériels
-Choisir entre s'encastrer dans 2 voitures à 50 ou bien renverser un vélo
Pour ça plusieurs pistes sont explorées. Nourrir les IA avec des décisions humaines afin de reproduire le comportement humain (mais on sait que le comportement n'est pas le même selon la culture, qu'est ce qu'on fait donc ?). Privilégier l'altruisme et sauver la personne en face en priorité. Sauver celui qui est le "moins en tort". Ne rien légiférer du tout ce qui revient à toujours privilégier le conducteur.

Comment équilibrer l'inévitables collecte de données personnelles de la conduite autonome et le droit à la vie privée ?
Cette question est fondamentale. Est ce que ta voiture te balancera à l'assurance ou aux autorités lors du contrôle technique si il est enregistré que t'es allé à 90 sur une nationale ?

Qui est responsable ? Là encore plusieurs pistes ont été et sont encore explorée.
-L'IA (donc le fabriquant) --> Freine l'innovation. Encourage la sécurité. Rend le conducteur client captif (si il change pas l'allume cigare auprès du partenaire agréé, le fabricant se décharge de toute responsabilité en cas d'accident)
-Le conducteur --> Freine l'adoption. Rend l'environnement plus compétitif.
Aujourd'hui on a opté pour la première option. Toutefois le conducteur se doit d'être toujours alerte et de pouvoir reprendre en main le véhicule à n'importe quel moment. Il peut donc y avoir des abus, --> un accident survient et l'IA te demande de reprendre en main 2 sec avant l'accident. Elle se décharge de la responsabilité.

Comment bien protéger les voitures du piratage informatique ?
Il peut prendre plusieurs forme : la prise de contrôle tout simplement ; nourrir les capteurs de fausses informations.

Bref, c'est plein de défis passionnant et on a toujours pas trouvé toutes les solutions.


Tous les commentaires (73)

Est-ce qu'elle vas quand même chercher à éviter un accident si sa responsabilité n'est pas engagé ?
L'enregistrement des données de la boîte noire comporte t'il un enregistrement audio et vidéo de ce qu'il se passe à l'intérieur du véhicule?
Si l'IA est déclarer responsable, aucune peine ne lui sera fourni. Est ce que c'est le programmateur qui risque dalles en prison? Ou ça va juste être une amende pour l'entreprise alors que son robot aura pris des vies ?

Au delà des questions éthiques et de responsabilités: qui a accès à ces boites noires et sous quelles conditions? Quid du respect de la vie privée si la boîte noire enregistre vos déplacements? Existe-t-il une limite de temps pour conserver les données? Sont-elles seulement locales ou enregistrer dans le cloud sur les réseaux de l'entreprise (constructeur ou société spécialisée)?

Suis super content, c’est ma première publication ! Bonne journée à toutes et tous

Ca commence de plus en plus a ressembler a un métro ou une ligne de bus pour un individu. Dans le contexte actuel, on peut se remettre en question sur le modele de vehicules autonomes (et des vehicules individuels) dans son ensemble

a écrit : Au delà des questions éthiques et de responsabilités: qui a accès à ces boites noires et sous quelles conditions? Quid du respect de la vie privée si la boîte noire enregistre vos déplacements? Existe-t-il une limite de temps pour conserver les données? Sont-elles seulement locales ou enregistrer dans le cloud sur les réseaux de l'entreprise (constructeur ou société spécialisée)? Afficher tout Si tu possèdes un téléphone portable, t’es déplacements sont déjà enregistrés. Ce n’est plus la peine de t’inquiéter pour ça ;)

La question de la responsabilité est une épineuse question juridique qui n’a pas encore de réponse figée.

Il est certain qu’un grand nombre de véhicules autonomes va augmenter la sécurité mais je pense que pour le visualiser en chiffres, il faut aller bien plus loin que 5%.

On aura bientôt aux nouvelles des assassinats en piratant les voitures (même s’il semble que ce soit déjà le cas). www.numerama.com/politique/26365-michael-hastings-a-t-il-ete-tue-par-le-piratage-de-sa-voiture.html/amp
Bref n’oubliez pas d’investir dans un anti virus sur votre prochain véhicule. Moi je vais garder mon vélo ;)

a écrit : Si tu possèdes un téléphone portable, t’es déplacements sont déjà enregistrés. Ce n’est plus la peine de t’inquiéter pour ça ;)

La question de la responsabilité est une épineuse question juridique qui n’a pas encore de réponse figée.

Il est certain qu’un grand nombre de véhicules autonomes v
a augmenter la sécurité mais je pense que pour le visualiser en chiffres, il faut aller bien plus loin que 5%.

On aura bientôt aux nouvelles des assassinats en piratant les voitures (même s’il semble que ce soit déjà le cas). www.numerama.com/politique/26365-michael-hastings-a-t-il-ete-tue-par-le-piratage-de-sa-voiture.html/amp
Bref n’oubliez pas d’investir dans un anti virus sur votre prochain véhicule. Moi je vais garder mon vélo ;)
Afficher tout
Je m'attendais à cette réponse mais:
1/ Je peux choisir d'allumer le GPS ou non (même s'il existe des moyens indirects, moins précis)
2/ Ça n'empêche que c'est un problème quand même,

a écrit : Je m'attendais à cette réponse mais:
1/ Je peux choisir d'allumer le GPS ou non (même s'il existe des moyens indirects, moins précis)
2/ Ça n'empêche que c'est un problème quand même,
1. www.localisertelephone.pro/sans-gps/
2. Oui c'est un problème de vie privée VS sécurité.

a écrit : Est-ce qu'elle vas quand même chercher à éviter un accident si sa responsabilité n'est pas engagé ?
L'enregistrement des données de la boîte noire comporte t'il un enregistrement audio et vidéo de ce qu'il se passe à l'intérieur du véhicule?
Si l'IA est déclarer responsabl
e, aucune peine ne lui sera fourni. Est ce que c'est le programmateur qui risque dalles en prison? Ou ça va juste être une amende pour l'entreprise alors que son robot aura pris des vies ? Afficher tout
Il y a pleins de question passionnante d'ordre philosophique, éthique et technologique avec ses technologies.

Comment faire agir l'IA dans des situations d'urgences ?
-Choisir entre sauver le conducteur, ou un piéton.
-Minimiser les pertes humaines ou minimiser les pertes matériels
-Choisir entre s'encastrer dans 2 voitures à 50 ou bien renverser un vélo
Pour ça plusieurs pistes sont explorées. Nourrir les IA avec des décisions humaines afin de reproduire le comportement humain (mais on sait que le comportement n'est pas le même selon la culture, qu'est ce qu'on fait donc ?). Privilégier l'altruisme et sauver la personne en face en priorité. Sauver celui qui est le "moins en tort". Ne rien légiférer du tout ce qui revient à toujours privilégier le conducteur.

Comment équilibrer l'inévitables collecte de données personnelles de la conduite autonome et le droit à la vie privée ?
Cette question est fondamentale. Est ce que ta voiture te balancera à l'assurance ou aux autorités lors du contrôle technique si il est enregistré que t'es allé à 90 sur une nationale ?

Qui est responsable ? Là encore plusieurs pistes ont été et sont encore explorée.
-L'IA (donc le fabriquant) --> Freine l'innovation. Encourage la sécurité. Rend le conducteur client captif (si il change pas l'allume cigare auprès du partenaire agréé, le fabricant se décharge de toute responsabilité en cas d'accident)
-Le conducteur --> Freine l'adoption. Rend l'environnement plus compétitif.
Aujourd'hui on a opté pour la première option. Toutefois le conducteur se doit d'être toujours alerte et de pouvoir reprendre en main le véhicule à n'importe quel moment. Il peut donc y avoir des abus, --> un accident survient et l'IA te demande de reprendre en main 2 sec avant l'accident. Elle se décharge de la responsabilité.

Comment bien protéger les voitures du piratage informatique ?
Il peut prendre plusieurs forme : la prise de contrôle tout simplement ; nourrir les capteurs de fausses informations.

Bref, c'est plein de défis passionnant et on a toujours pas trouvé toutes les solutions.

a écrit : Est-ce qu'elle vas quand même chercher à éviter un accident si sa responsabilité n'est pas engagé ?
L'enregistrement des données de la boîte noire comporte t'il un enregistrement audio et vidéo de ce qu'il se passe à l'intérieur du véhicule?
Si l'IA est déclarer responsabl
e, aucune peine ne lui sera fourni. Est ce que c'est le programmateur qui risque dalles en prison? Ou ça va juste être une amende pour l'entreprise alors que son robot aura pris des vies ? Afficher tout
Le programmateur ne sera jamais responsable : c’est celui qui s’occupe de la grille des programmes à la télé.
Le programmeur, par contre, c’est possible.

a écrit : Il y a pleins de question passionnante d'ordre philosophique, éthique et technologique avec ses technologies.

Comment faire agir l'IA dans des situations d'urgences ?
-Choisir entre sauver le conducteur, ou un piéton.
-Minimiser les pertes humaines ou minimiser les pertes ma
tériels
-Choisir entre s'encastrer dans 2 voitures à 50 ou bien renverser un vélo
Pour ça plusieurs pistes sont explorées. Nourrir les IA avec des décisions humaines afin de reproduire le comportement humain (mais on sait que le comportement n'est pas le même selon la culture, qu'est ce qu'on fait donc ?). Privilégier l'altruisme et sauver la personne en face en priorité. Sauver celui qui est le "moins en tort". Ne rien légiférer du tout ce qui revient à toujours privilégier le conducteur.

Comment équilibrer l'inévitables collecte de données personnelles de la conduite autonome et le droit à la vie privée ?
Cette question est fondamentale. Est ce que ta voiture te balancera à l'assurance ou aux autorités lors du contrôle technique si il est enregistré que t'es allé à 90 sur une nationale ?

Qui est responsable ? Là encore plusieurs pistes ont été et sont encore explorée.
-L'IA (donc le fabriquant) --> Freine l'innovation. Encourage la sécurité. Rend le conducteur client captif (si il change pas l'allume cigare auprès du partenaire agréé, le fabricant se décharge de toute responsabilité en cas d'accident)
-Le conducteur --> Freine l'adoption. Rend l'environnement plus compétitif.
Aujourd'hui on a opté pour la première option. Toutefois le conducteur se doit d'être toujours alerte et de pouvoir reprendre en main le véhicule à n'importe quel moment. Il peut donc y avoir des abus, --> un accident survient et l'IA te demande de reprendre en main 2 sec avant l'accident. Elle se décharge de la responsabilité.

Comment bien protéger les voitures du piratage informatique ?
Il peut prendre plusieurs forme : la prise de contrôle tout simplement ; nourrir les capteurs de fausses informations.

Bref, c'est plein de défis passionnant et on a toujours pas trouvé toutes les solutions.
Afficher tout
De nouvelles lois de la robotique en perspective ???
Personnellement, il m'apparaît évident que les IA auront sûrement des comportements plus "intelligents" qu'une grande majorité de conducteurs/trices, mais je vais avoir du mal à remettre ma vie (et celles de mes proches) totalement à une machine que je ne maîtrise pas (ou que je n'ai pas fabriquée).
Les aides à la conduite sont déjà une bonne chose, même si elles ont tendance à donner beaucoup d'assurance à des personnes au volant et qui feraient mieux de douter un peu plus de leurs capacités...

a écrit : Il y a pleins de question passionnante d'ordre philosophique, éthique et technologique avec ses technologies.

Comment faire agir l'IA dans des situations d'urgences ?
-Choisir entre sauver le conducteur, ou un piéton.
-Minimiser les pertes humaines ou minimiser les pertes ma
tériels
-Choisir entre s'encastrer dans 2 voitures à 50 ou bien renverser un vélo
Pour ça plusieurs pistes sont explorées. Nourrir les IA avec des décisions humaines afin de reproduire le comportement humain (mais on sait que le comportement n'est pas le même selon la culture, qu'est ce qu'on fait donc ?). Privilégier l'altruisme et sauver la personne en face en priorité. Sauver celui qui est le "moins en tort". Ne rien légiférer du tout ce qui revient à toujours privilégier le conducteur.

Comment équilibrer l'inévitables collecte de données personnelles de la conduite autonome et le droit à la vie privée ?
Cette question est fondamentale. Est ce que ta voiture te balancera à l'assurance ou aux autorités lors du contrôle technique si il est enregistré que t'es allé à 90 sur une nationale ?

Qui est responsable ? Là encore plusieurs pistes ont été et sont encore explorée.
-L'IA (donc le fabriquant) --> Freine l'innovation. Encourage la sécurité. Rend le conducteur client captif (si il change pas l'allume cigare auprès du partenaire agréé, le fabricant se décharge de toute responsabilité en cas d'accident)
-Le conducteur --> Freine l'adoption. Rend l'environnement plus compétitif.
Aujourd'hui on a opté pour la première option. Toutefois le conducteur se doit d'être toujours alerte et de pouvoir reprendre en main le véhicule à n'importe quel moment. Il peut donc y avoir des abus, --> un accident survient et l'IA te demande de reprendre en main 2 sec avant l'accident. Elle se décharge de la responsabilité.

Comment bien protéger les voitures du piratage informatique ?
Il peut prendre plusieurs forme : la prise de contrôle tout simplement ; nourrir les capteurs de fausses informations.

Bref, c'est plein de défis passionnant et on a toujours pas trouvé toutes les solutions.
Afficher tout
J’avais lu que la direction prise serait de favoriser le destin inévitable, c’est à dire que par exemple un gros freinage survient et impossible de se décaler sur le trottoir (piéton ou cycliste par exemple) alors l’IA doit choisir le choc en freinant au maximum. Elle choisit le destin qui aurait eu lieu en l’absence d’IA (capable de freiner rapidement) mais en minimisant les conséquences. Je trouve ce concept pas si débile même s’il est évidemment discutable.

a écrit : Suis super content, c’est ma première publication ! Bonne journée à toutes et tous Bravo pour ce sujet qui promet de beaux débats ;)
Par contre, dans l'anecdote, la date d'autorisation est le 14 juillet alors que les sources donnent le 1er septembre... :/

a écrit : Il y a pleins de question passionnante d'ordre philosophique, éthique et technologique avec ses technologies.

Comment faire agir l'IA dans des situations d'urgences ?
-Choisir entre sauver le conducteur, ou un piéton.
-Minimiser les pertes humaines ou minimiser les pertes ma
tériels
-Choisir entre s'encastrer dans 2 voitures à 50 ou bien renverser un vélo
Pour ça plusieurs pistes sont explorées. Nourrir les IA avec des décisions humaines afin de reproduire le comportement humain (mais on sait que le comportement n'est pas le même selon la culture, qu'est ce qu'on fait donc ?). Privilégier l'altruisme et sauver la personne en face en priorité. Sauver celui qui est le "moins en tort". Ne rien légiférer du tout ce qui revient à toujours privilégier le conducteur.

Comment équilibrer l'inévitables collecte de données personnelles de la conduite autonome et le droit à la vie privée ?
Cette question est fondamentale. Est ce que ta voiture te balancera à l'assurance ou aux autorités lors du contrôle technique si il est enregistré que t'es allé à 90 sur une nationale ?

Qui est responsable ? Là encore plusieurs pistes ont été et sont encore explorée.
-L'IA (donc le fabriquant) --> Freine l'innovation. Encourage la sécurité. Rend le conducteur client captif (si il change pas l'allume cigare auprès du partenaire agréé, le fabricant se décharge de toute responsabilité en cas d'accident)
-Le conducteur --> Freine l'adoption. Rend l'environnement plus compétitif.
Aujourd'hui on a opté pour la première option. Toutefois le conducteur se doit d'être toujours alerte et de pouvoir reprendre en main le véhicule à n'importe quel moment. Il peut donc y avoir des abus, --> un accident survient et l'IA te demande de reprendre en main 2 sec avant l'accident. Elle se décharge de la responsabilité.

Comment bien protéger les voitures du piratage informatique ?
Il peut prendre plusieurs forme : la prise de contrôle tout simplement ; nourrir les capteurs de fausses informations.

Bref, c'est plein de défis passionnant et on a toujours pas trouvé toutes les solutions.
Afficher tout
À priori, le règlement français te laisse 10 secondes pour réagir dès que la voiture te demande de reprendre le contrôle. Ça laisse quand même un peu de temps, bien qu'a 60 km/h, ça fait près de 167m parcourus.

a écrit : 1. www.localisertelephone.pro/sans-gps/
2. Oui c'est un problème de vie privée VS sécurité.
Super flippant ton site. Ca me rappel quand je me suis baladé sur Alphabay et j'ai découvert des comptes en banques, des comptes uber, netflix, amazon, et j'en passe à vendre pour quelques euros. J'ai plus jamais enregistré ma carte bancaire sur aucun site service en ligne.

a écrit : De nouvelles lois de la robotique en perspective ???
Personnellement, il m'apparaît évident que les IA auront sûrement des comportements plus "intelligents" qu'une grande majorité de conducteurs/trices, mais je vais avoir du mal à remettre ma vie (et celles de mes proches) totalement à une mac
hine que je ne maîtrise pas (ou que je n'ai pas fabriquée).
Les aides à la conduite sont déjà une bonne chose, même si elles ont tendance à donner beaucoup d'assurance à des personnes au volant et qui feraient mieux de douter un peu plus de leurs capacités...
Afficher tout
Une IA n'est que le reflet de ceux qui la créent. Le risque réside dans les logiques derrières. Je ne suis pas sûr qu'elles soient plus intelligentes.

"Un enfant traverse la route en courant, un cycliste l'évite et se faisant vient dans ma direction. L'accident est inévitable"

Logique en faveur de l'assurance ? L'IA choisi le matériel sur les vies. Elle percutera l'enfant car il fera moins de dégât au pare choc que le cycliste.
Logique mathématique ? Il s'avère qu'il y avait deux cyclistes nonagénaire, l'IA écrase l'enfant car ainsi elle préserve 2 vies au lieu d'une.
Logique de l'innocent ? L'IA préservera au maximum les intérêts de la victime de l'accident quite à faire mourir la personne en tort. Elle fonce dans l'enfant, il n'avait qu'a regarder avant de traverser, pourquoi l'innocent cycliste paierait-il pour lui ?
Logique du propriétaire ? L'IA sauvera quoi qu'il arrive le "conducteur" du véhicule au détriment de tout le reste. Le vélo a 10% de probabilité de traverser le pare brise et blesser le conducteur, l'enfant seulement 2% on fonce dans l'enfant.

Et surement pleins d'autres logiques auxquelles je ne pense pas.
Difficile de trouver un exemple mettant en exergue les différences pour chaque logique, mais vous voyez l'idée.

a écrit : À priori, le règlement français te laisse 10 secondes pour réagir dès que la voiture te demande de reprendre le contrôle. Ça laisse quand même un peu de temps, bien qu'a 60 km/h, ça fait près de 167m parcourus. Je ne savais pas. C'est pas mal, ça évitera surement pas mal de dérives. Ca s'approche pas mal des règles de navigation en mer.

a écrit : J’avais lu que la direction prise serait de favoriser le destin inévitable, c’est à dire que par exemple un gros freinage survient et impossible de se décaler sur le trottoir (piéton ou cycliste par exemple) alors l’IA doit choisir le choc en freinant au maximum. Elle choisit le destin qui aurait eu lieu en l’absence d’IA (capable de freiner rapidement) mais en minimisant les conséquences. Je trouve ce concept pas si débile même s’il est évidemment discutable. Afficher tout Si je comprend bien. En l'absence de solutions qui ne mettent pas en danger d'autres personnes, l'IA serre les dents et imite le comportement naturel humain.

Par exemple, l'IA avance, un vélo grille la priorité. Se déporter à gauche pour l'éviter est techniquement possible pour l'IA mais pas pour un être humain. Mais la voiture percuterai alors un autre véhicule. L'IA supprime donc cette option, calcul qu'un être humain n'aurait eut que le temps de freiner et donc freine.
C'est assez malin comme solution, mais je suis pas sûr que ça résolve tous les problèmes.

Si l'IA avait considéré que l'être humain aurait eu le temps de prendre une décision même instinctive ? Qu'aurait fait l'IA, elle aurait suivi ce qui aurait été la décision de l'être humain ? Quite à percuter le vélo, la voiture à gauche ou même un piéton à droite ?

Et comment juger ce qui aurait été la réaction d'un être humain ?

5% de véhicules autonome et 40% d’économie de carburant! Si c’est cas ça laisse penser qu’on est vraiment des brêles au volant

a écrit : Si je comprend bien. En l'absence de solutions qui ne mettent pas en danger d'autres personnes, l'IA serre les dents et imite le comportement naturel humain.

Par exemple, l'IA avance, un vélo grille la priorité. Se déporter à gauche pour l'éviter est techniquement possible pour l
'IA mais pas pour un être humain. Mais la voiture percuterai alors un autre véhicule. L'IA supprime donc cette option, calcul qu'un être humain n'aurait eut que le temps de freiner et donc freine.
C'est assez malin comme solution, mais je suis pas sûr que ça résolve tous les problèmes.

Si l'IA avait considéré que l'être humain aurait eu le temps de prendre une décision même instinctive ? Qu'aurait fait l'IA, elle aurait suivi ce qui aurait été la décision de l'être humain ? Quite à percuter le vélo, la voiture à gauche ou même un piéton à droite ?

Et comment juger ce qui aurait été la réaction d'un être humain ?
Afficher tout
Je crois que c’est plus simple que ça. En cas d’impossibilité de changer de trajectoire pour cause de danger alors l’IA choisit la trajectoire normal qu’elle aurait choisie avant la survenue de l’accident.
Aucun choix n’est à faire ici, c’est une règle à implémenter en mode : décalage de trajectoire possible oui/non - sinon alors trajectoire conservée et freinage.

Je crois d’ailleurs qu’il est moins accidentogène de freiner en ligne droite que de se déporter violemment. Encore plus si on percute un autre véhicule au lieu d’un piéton.