C’est important parce que les services de police font la course en avant et commencer à utiliser des drones de toute façon, pour tout, de la surveillance et de la collecte de renseignements à chasser les criminels.

La semaine dernière, San Francisco approuvé l’utilisation de robots, y compris des drones qui peuvent tuer des personnes dans certaines situations d’urgence, comme lorsqu’il s’agit d’un tireur de masse. Au Royaume-Uni, la plupart des drones de police sont équipés de caméras thermiques qui peuvent être utilisées pour détecter le nombre de personnes se trouvant à l’intérieur des maisons, explique Pósch. Cela a été utilisé pour toutes sortes de choses : attraper des trafiquants d’êtres humains ou des propriétaires voyous, et même cibler des personnes détenant fêtes suspectes pendant les fermetures de covid-19.

La réalité virtuelle permettra au les chercheurs testent la technologie de manière contrôlée et sûre parmi de nombreux sujets de test, explique Pósch.

Même si je savais que j’étais dans un environnement VR, J’ai trouvé la rencontre avec le drone déconcertante. Mon opinion sur ces drones ne s’est pas améliorée, même si j’en avais rencontré un soi-disant poli et opéré par un humain (il existe des modes encore plus agressifs pour l’expérience, que je n’ai pas expérimentés.)

En fin de compte, peu importe que les drones soient “polis” ou “impolis”, explique Christian Enemark, professeur à l’Université de Southampton, spécialisé dans l’éthique de la guerre et des drones et qui n’est pas impliqué dans la recherche. C’est parce que l’utilisation de drones lui-même est un “rappel que la police n’est pas là, qu’elle ne se soucie pas d’être ici ou qu’elle ait trop peur d’être ici”, dit-il.

“Alors peut-être qu’il y a quelque chose de fondamentalement irrespectueux dans toute rencontre.”

Apprentissage plus approfondi

GPT-4 arrive, mais OpenAI est toujours en train de réparer GPT-3

Internet est en effervescence à propos de la dernière itération du laboratoire d’IA OpenAI de son célèbre grand modèle de langage, GPT-3. La dernière démo, ChatGPT, répond aux questions des gens via un dialogue aller-retour. Depuis son lancement mercredi dernier, la démo a franchi plus d’un million d’utilisateurs. Lisez l’histoire de Will Douglas Heaven ici.

GPT-3 est un connerie confiant et peut facilement être incité à dire des choses toxiques. OpenAI dit avoir résolu bon nombre de ces problèmes avec ChatGPT, qui répond aux questions de suivi, admet ses erreurs, conteste les prémisses incorrectes et rejette les demandes inappropriées. Il refuse même de répondre à certaines questions, telles que comment être méchant ou comment pénétrer par effraction dans la maison de quelqu’un.

Leave a Reply