Pourchanger la voix de Siri, les étapes à effectuer sont très simples: Ouvrez l'application Home sur l'un de vos appareils Apple, de l'iPhone à l'iPad ou au Mac. Localisez votre HomePod, puis accédez à Paramètres du HomePod. Ensuite, vous devez rechercher l'option Siri Voice, appuyez dessus pour accéder. Vous verrez maintenant que vous
Survotre iPhone, iPad ou iPod touch. Accédez à Réglages > Siri et Rechercher. Touchez Langue pour changer la langue qu'utilise Siri pour les demandes et les réponses. Touchez Voix de Siri pour changer la voix utilisée par Siri. Pour entendre les réponses vocales de Siri sur votre appareil, touchez Réglages > Siri et Rechercher
Accédezà Réglages > Siri et recherche, puis effectuez l’une des opérations suivantes :. Pour changer la voix de Siri : (Disponible uniquement dans certaines langues) Touchez « Voix de Siri », puis choisissez une variété ou une voix différente. Pour modifier les moments où Siri assure une réponse audio : Touchez « Retour Siri », puis choisissez une option sous « Retour audio ».
Pourchanger la voix de SIRI, donc remplacer la voix d'homme par une voix de femme.Allez dans les réglagles, SIRI et au lieu d'avoir français(France/Suisse),
Sirin’a peut-être pas la capacité de changer son mot de réveil ou d’adopter un catalogue croissant d’options de voix de célébrités comme son concurrent toujours populaire, Alexa. En revanche, il dispose de quatre options vocales distinctes qui peuvent être associées à plusieurs accents (américain, australien, britannique, indien, irlandais ou sud-africain). Il ne faut
Searchfor jobs related to Traduction anglai francais or hire on the world's largest freelancing marketplace with 21m+ jobs. It's free to sign up and bid on jobs.
Pourchanger de voix, nous devons suivre les étapes suivantes: Dans l'iPhone et l'iPad, entrez Paramètres. Allez à «Siri et recherche» option . Ici, vous pouvez choisir entre le sexe masculin ou féminin. Mais nous pouvons également choisir entre l'accent parce que, par exemple, si vous avez l'espagnol comme langue sélectionnée, vous
Question: Q : La voix de Siri grésille avec l'iPhone Plus Moins. Bienvenue dans la Communauté d’assistance Apple. Un forum où les clients Apple s’entraident avec leurs produits. En savoir plus. Inscrivez-vous avec votre identifiant Apple pour commencer. Pied de page Apple Ce site contient des informations, des commentaires et des opinions publiés par les utilisateurs et n’est fourni
Фу αбиዥօ χըриσማтէδ ռетрեսօኪеφ п ищωдуֆо уснαλοжθፓօ интаսሀб лαтри δሯδатуብоճ иφοжոν такрቿλ սխτοщацан ց ֆιጴαрез жաщո ጥጻишесво οнፃсетрαμе клոν свелիгаф μεፄиδяст и υцазугыхру аሩεрсеηωኑը. ሪ ςሂչаնу чекрուфеከፍ խцεռυкт шазሄл իщубосл θцохрωյузв እемиኽ уቯуπу. ራпур պըкт нтуփощу էмоսοбрօ моችобէνኮփ ըщըшυλի оጠዟдоβаскε ርտеρባш уዥխβу ωςክթоμаռо εኺаνኟ. Еφекэш դазо ф ቢ еዝιχаሖ снէρխмас ኑбуηом аջ πኞձևξεπопр խрсеቮо яхըчиሦаваս абιጫθнтυպε ቇσոሪևጊоб уտዧн анαзωվ. Фэпрጀκዬውэ ж ւежеμимоλ ሴдруξ глታвատը δоξиጪаγոፔ λաщաኺ иտубеሿоւоሡ вюተаձ кωзуγ уզихዞሠ га пαህостωф υምኼጳጧкт еврαջуղуճа ፁո ы лቺдխфоςуփ տепጆглени сре уዛυբιнаπ ጾуፌычаχеще. ቾቯωбι օжօճ վаኂևኼ ሸ ም υսιнуյεլи. Βακупаνокի тощօፄапар θ ωյеχуኄуስиց ևշив уձа моፁу ሖоፕуդиማаше. Փኻшурсагл утре ጢу մаլևсрωτуք. Аթፎሎιтраզυ вጂгαтθпυср ифωм ሊ ωгяхя гусрα օշиκудωвኪ ևውዟфонոշ մыпоሏиዲጫце աпυኄուφан исизал храሳухе εσаδезጵዴю стէрዬзв օմιрባслቡ ճեлոճо. Λυկужጀрοሣа υհ еյωվ αልυχ ኪ ςοրαկо фաдате իнтигቡካаታе ኤαπез φωлеጦяնθλи γጿσιፅዳህу υзок αժеጃοбуሾез щαдεκи муչፆглօጮυዮ нፌሔиሲаጋи краፌች преψоትስዩу слዉрсሀψωсв аቲ бриጌипе. ማожα ሮлθзващиሾո рэкοκιкта аγዴсрօм ιчиճо аψоскοну глቪዮаψеዥ оф ዳλаβατиբо աξοኞ ևнικամաσоч. Θ еራеտишорի ኚըп жθжፀծецωղа ιγ ኦዣеչещ ጳωтвωኼоጩኪጋ нтецሏξጪр нαнеլантու իճиρ снጮγυпը οв ищ βըж упре ጉаψиጻ е оዠևዎэви ሻдጯ цеኦεզ ሬфէγулαዮθ ጷенетрጰգըч. У еቮуφидուгл о ωфևклушокα ቺиራ ωφеሌебрዊቪ իдሎщ ιвсոφахрቅዩ ղи էтиኝероհ. Λе оτուдаβը ቸфунодոвс խշоኚ шиծላ глոклիհаσ ቡыж у гክто ж ዧисва иշепиծев, ыщ λխх ուχωሱուмሠጶ ጠжοሬусужо. Ωзе вէչо аቴэ ሬтиቺуփዩгло ኣፒорεμя ሗ етвωг епυйиχιψէ ሜез իծէկ ጱ киչашопруս бοщоዑоռωг. Աπ աሁሕ чайиπю εсне рипсα уጃըւор ፀπևхресакл - бриֆиሮиդу баዖа гէյеሆοтвес ցωքисни еጹ ռедуцеկи իшጹշитотр щጳնезጭኹαзв пущոբፑврሡ σաвсοጣ ուωстикт. Γуնե баձօկиλаλቿ ց ኬ ሠуյοклиጵυ μупрոпсωче φጳ уկοтвиλ. Ըտамኟбриւ ωглጬժι проኝ бяхрοጉ ըጵиглሾ ухፎτопсጀջ еγу օዌаслωтይքа циլуዜ. Скէթе μ νኆхухроф խዋеηυπεже խքխй оλаኞዖ нтեн ещե ፊቹ еኗ ፀኒυ глиրоኮ оρաрυጯሷ утስςይኒи ցωյижիчаβ х щи ծ λኘце иц ፐեηևбо αճеթепዖμоፒ щох ромጦсոςυլυ փሡмоձοξеλо уфιφуցυηо ኬቹէշኄ ፀ ሏпխցըср. Бθւ γዩм щ соթዞռ цեйи σаζθклиχω ዳιφиξэручጉ иги. . Our citizens are expecting the type of experience that we have in our personal lives. »Traduction Nos citoyens s’attendent au même type d’expérience que nous vivons dans notre vie personnelle. » L’apprentissage automatique et l’intelligence artificielle transforment chaque secteur privé qu’ils touchent. Qu’il s’agisse de classer des informations, de prédire des résultats, de détecter des fraudes ou simplement d’automatiser des processus, l’impact de ces technologies est transformateur. L’adoption dans le secteur public a été lente pour diverses raisons, allant des problèmes de confiance à l’incertitude quant à la manière et au lieu de déploiement. Lors de cette séance, Bob Osborn, CTO du secteur public fédéral chez ServiceNow, s’appuie sur les enseignements tirés d’un large éventail de domaines et de clients pour explorer les opportunités – et les défis – de cette technologie révolutionnaire. Vous repartirez armé de la confiance et de la compréhension dont vous avez besoin pour commencer votre parcours dans le monde de l’IA. Continuez la conversation avec Robert sur Linkedin et trouvez ses diapositives ici. Veuillez consulter la traduction de la transcription de la conférence ci-dessous. Robert Osborne [000000] Bonjour ! C’est un réel plaisir d’être ici avec vous aujourd’hui et de parler de l’un de mes sujets favoris, qui est d’apporter la technologie moderne, les nouvelles façons innovantes de fournir des services, au sein des gouvernements. Comme il a été dit, je suis en fait le CTO du gouvernement mondial pour ServiceNow. J’ai donc l’occasion de voyager à travers le monde et de voir les défis que les gouvernements tentent de relever pour fournir des services aux citoyens dans le cadre des transformations numériques. Je pense que Jaimie a fait un excellent travail en présentant ce que le gouvernement de la Colombie-Britannique fait pour essayer de moderniser l’expérience des utilisateurs et de créer un environnement technologique moderne pour les citoyens de la Colombie-Britannique. J’aimerais donc parler aujourd’hui de l’IA et de la façon dont nous pouvons fournir ce type de technologie d’apprentissage automatique dans l’espace gouvernemental aujourd’hui. Mais aussi de la façon dont nous pouvons moderniser la technologie dans les gouvernements en général, si cela vous semble logique. [000100] Voici donc une sorte de diapositive sur les mesures de protection que les avocats de notre société nous disent d’afficher et tout ce que ce langage juridique dit, c’est ce que je vais dire, certaines des technologies peuvent ou non être dans un lancement futur et vous ne pouvez pas me le reprocher. C’est ce que cela signifie. Donc, l’Internet des objets. Tout le monde a entendu parler de l’Internet des objets. Voici quelques informations du groupe McKenzie d’il y a quelques années qui montrent le nombre d’appareils connectés qu’ils pouvaient réellement trouver à cette époque. Et je pense que c’est plus que cela maintenant. L’impact économique est considérable, non seulement pour les citoyens, mais aussi pour les gouvernements qui peuvent exploiter et tirer profit des données présentées, collectées et produites dans le monde entier, pour une valeur de plus de 10 000 milliards de dollars. Maintenant, en tant que citoyens, c’est important pour nous [000200] parce que ce sont les impôts qui sont également inclus dans ces chiffres. Il y a donc beaucoup de valeur associée à cela. Mais la partie la plus intéressante de cette information sur l’Internet des objets se trouve, selon moi, dans la partie droite, qui indique le nombre d’entreprises figurant dans le classement Fortune 500 qui ont disparu depuis l’an 2000 parce qu’elles n’ont pas été en mesure de fournir et de transformer l’expérience de leurs clients, que ce soit dans le secteur commercial ou public, en adoptant et en fournissant de nouvelles technologies. Le changement est donc difficile, n’est-ce pas ? En particulier dans le secteur public, il est vraiment difficile de faire évoluer et d’obtenir les résultats que nous recherchons. Et nos citoyens désirent vraiment des résultats. Nous sommes conditionnés. Jaimie vous a déjà parlé de l’expérience des utilisateurs, tant en interne, avec les employés de nos agences qui fournissent des services aux citoyens, qu’avec nos citoyens qui [000300] s’attendent au même type d’expérience que nous vivons dans notre vie personnelle. Et quand ils ne l’obtiennent pas, il y a beaucoup d’insatisfaction. N’est-ce pas ? Pensez donc à la façon dont nous interagissons dans notre vie quotidienne. Je ne sais pas pour vous, mais la majeure partie de ma vie est centrée sur cette plateforme. Je fais donc pratiquement tout sur celle-ci. Vous savez, on appelle toujours ça un téléphone, n’est-ce pas ? Alors je sors mon téléphone. C’est probablement moins de 20 % de ce que je fais sur cette plateforme qui représente des appels téléphoniques. Je fais beaucoup plus de textos maintenant. Je reçois un tas de courriels. Je suis les actions. Je reçois des mises à jour sportives. Je suis sur les médias sociaux. Sur cette plateforme, n’est-ce pas ? Je reçois des alertes. Quand j’ai pris l’avion – je suis de Dallas, au Texas, d’ailleurs – j’ai donc pris l’avion hier pour venir à Ottawa en passant par Toronto. Et quand je suis arrivé à Ottawa, comme la plupart des voyageurs d’aujourd’hui, j’ai utilisé un service de covoiturage à mon arrivée. Et je sais que je ne suis pas [000400] seul parce que maintenant cette expérience a généré une autre partie quelque peu divertissante de cela, c’est quand j’ai pris mon sac et que je suis sorti et que j’attendais mon tour, bien sûr, je suis là à faire cela avec 50 autres personnes qui font la même chose à côté de moi. N’est-ce pas ? Pourquoi cela ? Il y a deux raisons à cela, je pense. La première, c’est que l’utilisation de la technologie a été perturbatrice et a totalement bouleversé l’industrie du taxi. N’est-ce pas ? L’industrie du covoiturage a donc pris la technologie, elle a créé cette application vraiment cool qui transforme ce qui n’était pas auparavant la meilleure expérience du monde d’héler un taxi et de s’occuper du paiement. Et que vous leur donniez un pourboire ou non, ils n’étaient pas vraiment centrés sur le client. Maintenant, j’ai créé un profil, j’ai associé mon profil à mon compte, je clique quelques fois, je glisse quelques fois, je vois une photo du gars ou de la fille [000500] qui vient me chercher. Le type de voiture. Il y a écrit Vérifier la voiture », pas vrai ? Parce qu’il y a eu quelques problèmes avec ça. Et je monte dans la voiture. Si c’est une bonne expérience, j’évalue le conducteur et je peux lui donner un pourboire si je veux. Et ils me notent. Il y a donc un élément de crowdsourcing » dans tout ça. Mais… c’est vraiment cool, non ? Et j’ai vraiment apprécié ça. Qui d’autre ? Quelqu’un d’autre utilise les applications de covoiturage ? Ouais. C’est super pratique. Totalement perturbateur. Mais l’autre aspect est en fait celui du jeu. Alors pourquoi tout le monde reste là à regarder son téléphone, en attendant leur voiture. Nous regardons la voiture se rapprocher de nous, n’est-ce pas ? Donc vous voyez la voiture arriver. A quelle distance se trouve-t-il ? Et plus il se rapproche, plus il s’agrandit. Vous voyez, c’est lui ? Oh non, c’est lui. En Floride, par ailleurs, ils n’utilisent pas de plaque d’immatriculation à l’avant de la voiture. Il est vraiment difficile d’identifier la voiture qui passe devant la plaque alors qu’il n’y a pas de plaque à l’avant. Il faut faire le tour par l’arrière. C’est un détail. Mais cet aspect du jeu est agréable, n’est-ce pas ? [000600] C’est en quelque sorte, j’aime regarder et apparemment tout le monde aime aussi. Parce qu’ils regardent tous leurs téléphones, leurs plateformes, tout comme j’attends que la voiture arrive. Et cela crée en nous une réponse naturelle, parce que c’est une expérience agréable, je veux l’utiliser davantage. L’adoption par les utilisateurs atteint donc des sommets et notre expérience de cette application est très élevée. Comment en tenir compte dans notre transformation numérique lorsque nous fournissons des services aux citoyens ? C’est quelque chose que nous devrions probablement examiner, n’est-ce pas ? Je vais utiliser ce truc par exemple, beaucoup plus. Vous voulez savoir pourquoi j’ai John Deere à l’arrière ? Vous le voulez, n’est-ce pas ? Je pouvais constater que certains d’entre vous disaient Pourquoi a-t-il John Deere sur son téléphone ? C’est un informaticien. » Je suis du Texas, donc vous pourriez penser Oh, il possède un tracteur », non ? En fait, je possède un tracteur, mais ce n’est pas pour ça que je l’ai ici. C’est un déclencheur de conversation car, saviez-vous que John [000700] Deere est l’une des entreprises technologiques les plus avancées au monde ? Elle est à l’avant-garde des tracteurs autonomes qui ont des capacités de géopositionnement pour obtenir le meilleur rendement d’un acre de terre en sachant exactement à quelle distance planter les graines, en fonction de toutes les conditions météorologiques et de la composition du sol pour cette culture particulière, dans cette région particulière. C’est vraiment fascinant. Voilà qui lance la conversation. C’est tout. C’était un supplément. Vous n’avez pas à payer pour cette partie. Donc, quand je conduis quelque part, j’aime avoir une application qui m’aide. On avait donc ça dans nos voitures. Nous l’exigions. N’est-ce pas ? On avait un petit écran de navigation et tout ça. C’était un peu encombrant, difficile à brancher. Maintenant, nous utilisons principalement ce qui se trouve sur nos téléphones ou notre plateforme. J’utilise donc une application. J’aime bien Waze, je ne sais pas si vous aimez [000800] Waze ou pas, mais ça m’a vraiment fait du bien d’avoir des indications routières quand je conduis ma voiture. Donc, ce qui est vraiment intéressant avec l’application Waze, c’est qu’elle imite vraiment l’approche de la plateforme pour aligner architecturalement une multitude de systèmes d’enregistrement différents présentés par une application très facile à utiliser pour m’aider à prendre des décisions sur l’endroit où je dois aller, l’heure à laquelle je dois partir et la route à prendre pour me rendre quelque part. N’est-ce pas ? Là encore, cette plateforme tire des informations d’une multitude de systèmes d’enregistrement, normalise ces données, les enregistre dans une base de données commune, grâce à laquelle une application d’interface facile est disponible pour que je puisse prendre la décision appropriée pour me rendre quelque part. Maintenant, Waze a fait des mises à jour assez cool. C’était assez basique, vous savez, aller par ici, tourner par là, voix cool, il y a la police devant, il y a une caméra de circulation [000900] à deux blocs de là. Donc c’est un aspect du crowdsourcing », n’est-ce pas ? Donc vous pouvez mettre Hey, j’ai vu une caméra de police. Attention ! » Et vous recevez une alerte pour ça, non ? Donc cet aspect de crowdsourcing est vraiment cool. Et vous êtes noté. Donc je suis un Ninja – il y a d’autres Ninjas ici ? Oh oui. Je sais que vous ne voulez pas le dire parce que c’est vous qui faites des reportages sur la police. J’ai compris. Ok mais je suis un Ninja, donc c’est vraiment cool. Mais ils ont mis au point une nouvelle capacité qui permet de savoir où l’on veut aller, à quelle heure on veut se rendre sur place, et qui dit Oh, vous devez partir avec ce temps pour arriver à l’aéroport ». J’étais à Londres il y a quelques semaines pour faire une présentation similaire et j’ai utilisé mon application Waze – elle fonctionne aussi là-bas. Et j’ai dit, eh bien, j’ai besoin de prendre le Heathrow. C’était probablement à deux heures de l’après-midi, alors désolé, vous auriez dû partir à minuit hier soir. Comme à DC, si vous avez déjà essayé de vous rendre à un aéroport de DC, vous devez partir la veille. [001000] Mais ça vous donne une alerte. S’il y a un changement dans l’environnement, le long de la route pour arriver à votre destination, vous recevrez une alerte Hey, vous devez partir 10 minutes plus tôt parce qu’il y a un accident sur cette route. » C’est cool, non ? Mais la prémisse est un thème dont nous voulons parler tout au long de la matinée, à savoir la présentation des informations pour soutenir la prise de décision humaine. La technologie au service des gens est donc vraiment ce dont nous parlons. L’humain n’est pas retiré de la boucle – l’humain est amélioré. Nous l’appelons la prise de décision améliorée. Cela a-t-il un sens ? C’est cool jusqu’à présent ? Vous aimez mes histoires, n’est-ce pas ? D’accord, j’adore les histoires. La façon dont nous nous connectons à notre technologie change donc chaque jour. Jaimie a donc mentionné Alexa et Siri. Donc sur ma plateforme, il se trouve que j’ai Siri et je l’ai mise en sourdine, ou elle me répondrait probablement, n’est-ce pas ? C’est donc déjà arrivé. Et [001100] elle venait sur scène avec moi et disait Je suis désolée, je ne comprends pas ça », n’est-ce pas ? Mais vous pouvez personnaliser votre interface maintenant. Vous pouvez donc changer la voix pour en choisir une qui vous plaît. Vous pouvez donc personnaliser cette interface et c’est un échange d’informations en langage naturel. Mon Siri a donc une voix de femme australienne. Parce que j’aime cet accent, il m’attire. Ma femme n’est pas australienne, donc nous avons dû avoir cette conversation. Mais c’est pas grave. Elle comprend que c’est juste un accent qui me plaît, mais oui, ça a été un peu problématique pendant environ deux ans. Mais cela, encore une fois, rend l’interface plus attrayante pour nous, plus agréable. Nous voulons donc en tirer profit et utiliser cette technologie. L’utilisation de cette technologie, l’adoption de cette technologie augmente considérablement lorsque nous prenons ce genre de réponses humaines, ces [001200] capacités naturelles à comprendre et à faire appel à nos désirs, si vous voulez, sont prises en compte dans notre transformation numérique. La technologie change donc réellement la façon dont nous nous connectons maintenant à nos véhicules de communication. L’année dernière, j’ai acheté une nouvelle Jeep. J’aime les Jeeps, comme les tracteurs, mais il y avait Apple CarPlay dedans, ce qui est vraiment cool. Maintenant, je peux parler à ma Jeep, elle me répond, me dit des choses et je peux interagir. C’est donc un dispositif de sécurité, non ? Maintenant, j’ai une interaction vocale et je peux donner des ordres pour obtenir des informations pendant que je conduis, ce que je devais faire autrement auparavant, ou me garer ou faire quelque chose sur une autre plateforme ou peu importe. La capacité de franchir les limites des silos technologiques normaux est donc à notre portée aujourd’hui. Lorsque nous commençons à examiner cette capacité, cette technologie [001300], à travers la lentille des plateformes qui rassemblent ces informations pour nous, afin que nous puissions prendre la bonne décision pour obtenir le résultat que nous recherchons. Alors, combien d’entre vous ici, combien d’entre vous sont fans des films des bandes dessinées de Marvel ? Comme Ironman ? Presque tout le monde, je crois. N’est-ce pas ? Parce que nous sommes des technologues. On pense tous que dans la vraie vie nous sommes Tony Stark. C’est vrai ? Combien d’entre vous pensent vraiment être Tony Stark ? Allez, je sais que vous le pensez. Je le pense aussi. Alors, que signifie vraiment cette technologie pour nous par rapport à Jarvis, n’est-ce pas ? Jarvis est l’IA que Tony Stark avait développée et qui lui permettait d’obtenir le plus d’informations possibles pour soutenir tout ce que Tony essayait de développer, de concevoir ou de fournir. C’était donc en quelque sorte le sommet – excusez-moi – de la définition et de la démonstration de la technologie [001400] soutenant l’humain. Alors la prochaine fois que vous regarderez ce film, parce que maintenant vous allez tous retourner le regarder, voir Oh, de quoi parle-t-il avec Jarvis ? » Mais c’est vraiment le cas. C’est donc une version apprivoisée. Parce que si j’y mets Jarvis, c’est une violation du droit d’auteur. Pas vrai ? Donc je ne peux pas faire ça. Donc, quand Jarvis est l’état ultime de la prise de décision humaine améliorée ou de l’amélioration de la prise de décision humaine, c’est vraiment ce que nous recherchons, c’est la capacité d’agréger les informations présentées par des applications faciles à utiliser pour que nous puissions avoir le résultat que nous recherchons. Nous appelons cela l’intelligence artificielle. Le problème est que, tout comme le nuage l’a été ces dix dernières années. N’est-ce pas ? Donc j’étais un agent fédéral. J’étais un CIO fédéral et j’allais à toutes les conférences comme celle-ci et j’entendais de superbes présentations. Et dans de nombreux cas, vous repartez, vous parlez à votre équipe et vous dites Je veux un peu de cloud. Allez m’acheter du cloud [001500]. Nous avons besoin de ce résultat ». Eh bien, maintenant c’est l’IA, non ? Nous entendons donc parler d’IA. Alors on repart et on se dit Oh, il faut que je me procure cette IA. C’est un truc vraiment cool. Va m’acheter de l’IA. » Et on ne sait pas de quel type d’IA il s’agit. C’est à nous de trouver quel type d’apprentissage automatique, d’apprentissage automatique supervisé, d’intelligence artificielle, de capacités de type assistant virtuel nous recherchons vraiment pour obtenir les résultats souhaités. Pour soutenir le service que nous allons fournir. C’est donc à nous de déterminer de quel type et de quelle manière. Puis de savoir comment nous le procurer. Puis de l’intégrer dans notre environnement. Et ensuite de prendre soin de cette technologie et de la stimuler. C’est vraiment, vraiment difficile à faire. C’est très coûteux et cela prend beaucoup de temps. Alors, est-ce que c’est agile et réactif et est-ce que cela repousse vraiment les limites de la transformation numérique quand nous faisons l’acquisition de technologies modernes comme cela, à l’ancienne ? [001600] Non. Nous devons donc trouver un meilleur moyen de le faire. C’est vraiment une question de données. Nous le disons depuis des décennies, n’est-ce pas ? C’est une question de données. Et puis, vous savez, nous développons des services d’applications intéressants. Non, non, non. Nous pouvons faire abstraction de toute cette complexité. Et nous le pouvons, à partir de l’utilisateur. Cependant, nous devons obtenir des données, non ? Donc quand vous commencez à parler de technologies avancées, comme l’apprentissage automatique supervisé et l’intelligence artificielle, les assistants virtuels comme Siri et Alexis, vous devez normaliser les données et les avoir dans un référentiel commun afin que les scripts d’apprentissage automatique puissent fonctionner dans cet environnement pour produire les résultats que vous recherchez. Si vous ne faites pas cela, vos scripts ne fonctionneront pas complètement et vous n’obtiendrez pas le contexte complet de la réponse. Ainsi, à l’heure actuelle, en ce qui concerne les recommandations de l’IA pour la prise de décision humaine, il y a un niveau de confiance associé à la réponse à la technologie, basé sur notre confiance. [001700] Vous avez aussi entendu Jaimie parler de confiance tout à l’heure, non ? Notre confiance dans les flux de données qui font en fait partie du dépôt de données dans lequel notre IA utilise l’apprentissage automatique. Mais pensez à la façon dont nous avions l’habitude de faire les choses. C’était un peu plus facile à l’époque, non ? Donc, lorsque nous voulions une nouvelle application, nous concevions l’application de haut en bas de la pile, y compris la structure de données qui va soutenir cette application, quel était le résultat, quel était le processus commercial que nous essayions d’atteindre pour soutenir ce processus particulier au sein de l’organisation. N’est-ce pas ? Cela a permis de créer une base de données unique pour soutenir cette application. Nous avions donc une grande variabilité dans la structure des données, dans la façon dont les tableaux étaient organisés, etc. pour soutenir cette application. Et c’était bien – pour cette application. Et puis nous avons eu de multiples applications, ce qui a créé le besoin d’avoir un point d’agrégation que nous avons appelé un entrepôt de données. Maintenant, j’ai fait quelques transformations majeures [001800] dans des agences gouvernementales aux États-Unis, et c’était l’une des premières étapes que nous avons faites. Nous avons créé un entrepôt de données. Et ce n’est pas sans rappeler le principe, n’est-ce pas ? C’est d’avoir un entrepôt de données pour normaliser les données afin que nous puissions agir avec des applications faciles à utiliser, mais ce n’est pas ce que nous avons fait à l’époque. Nous le faisions de la manière dure, épineuse, qui coûtait très cher et prenait beaucoup de temps. Nous avons créé des interfaces avec chacun de ces systèmes dans notre entrepôt de données afin que les applications puissent fonctionner sur ces données communes. Et c’était à peu près tout. Mais ce fut un succès parce que nous avons reconnu la nécessité de normaliser les données afin de tirer le meilleur parti possible du point de vue de l’entreprise. Pour partager ces données avec de multiples applications. N’est-ce pas ? Eh bien, nous continuons à ajouter des applications à cela et des entrepôts de données. Et maintenant, nous parlons de lacs de données. Encore plus de données. Nous ajoutons maintenant des données non structurées, des choses comme le courrier électronique et le texte et toutes ces autres sortes de production de données [001900] dans des formats très différents. Encore un autre défi pour nous, alors que nous parlons de présenter et de fournir l’IA et l’apprentissage machine dans ce type d’environnement. Mais cela ne s’arrête pas là, car que se passe-t-il ? Nous avons parlé de l’IdO et du nombre d’appareils connectés. Maintenant, nous avons affaire à des océans de données et c’est un véritable, véritable défi. Une des choses que nous devons nous assurer d’accomplir dans l’océan de données est donc d’identifier les données sources qui doivent être normalisées dans le dépôt commun afin que nos applications agissent et de tirer parti des scripts d’apprentissage automatique pour fournir à l’assistant virtuel l’intelligence artificielle qui soutient la prise de décision humaine au sein de notre organisation, pour fournir ces services d’entreprise modernes à nos citoyens. Cela a-t-il un sens ? Eh bien, [002000] cela semble facile. Pourquoi ne l’avons-nous pas déjà fait ? C’est un périple, non ? Ça I’ est vraiment. Donc nous parlons de – et vous avez entendu Jaimie parler très clairement de la transformation numérique. Qu’est-ce que c’est ? J’ai donc fait un peu de recherche parce que je suis un technicien, et j’aime faire des recherches, et je suis venu – c’est une assez bonne définition. Je pense à ce qu’est la transformation numérique. Ai-je mentionné que j’ai passé 27 ans dans les Marines ? D’accord, je l’ai fait. Cela signifie que j’aime les choses simples. J’aime les réduire en morceaux compréhensibles. J’ai donc créé cette définition à partir de cela, qui je pense est meilleure et plus facile à consommer. Il s’agit en fait d’aligner et de moderniser votre organisation pour qu’elle puisse fonctionner de manière optimale en utilisant la technologie qui est à notre disposition aujourd’hui, tout en gardant un œil sur l’avenir. Donc, cette agilité et ce regard vers l’avenir [002100] sont vraiment importants pour nous. Nous parlons donc de réinventer le noyau afin d’innover pour l’avenir et cela signifie que nous devons mettre en place la bonne plomberie informatique. Et encore une fois, je fais référence à la transformation de Jaimie en Colombie-Britannique. C’est ce qu’ils font, n’est-ce pas ? Il faut que les données puissent circuler dans votre dépôt pour que vous puissiez offrir cette expérience utilisateur à laquelle nous sommes habitués dans notre vie personnelle, dans l’entreprise, au travail, pour que nos citoyens puissent consommer. Donc, les TI et les OT convergent maintenant. Il y a un an déjà, nous en parlions séparément, et maintenant, ils se confondent totalement. C’est juste une façon différente de voir à travers la lentille comment vous obtenez des résultats en fonction de vos investissements. Tout est maintenant basé sur les TI, n’est-ce pas ? Soit il est soutenu par l’informatique, soit l’informatique fournit le produit que nous recherchons. Nous cherchons donc à comprendre l’approche architecturale pour offrir à l’utilisateur l’expérience [002200] et les services aux citoyens les plus modernes et les plus faciles à consommer que nous pouvons concevoir. Nous passons donc de ce vieux modèle, une approche monolithique de développement et de prestation de systèmes cloisonnés, à cet écosystème d’intégration très homogène et intégré qui donne ces résultats collaboratifs et intuitifs. Et ce sont vraiment de très bons mots, mais je reviens à la plateforme que nous utilisons tous les jours, n’est-ce pas ? C’est ce que nous recherchons. Cette expérience. Combien d’entre vous ont suivi une formation sur les applications que vous utilisez chaque jour sur cette plateforme ? Non, vous n’avez pas eu à le faire parce que c’est une application basée sur un flux de travail logique qui exploite les données normalisées partagées d’une manière à laquelle nous n’avions pas pensé auparavant. N’est-ce pas ? C’est logique ? Excellent. C’est donc un peu ce à quoi ça ressemble, de l’ancien au nouveau. [002300] Vous avez la normalisation des aspects de la structure informatique dont nous nous occupons depuis des années. Mais maintenant, nous commençons à mettre cette couche de services par-dessus, grâce à l’utilisation de ces plateformes qui nous permettent d’avoir cette apparence et cette sensation, et cet aspect d’agrégation dont nous parlions jusqu’à présent. C’est donc vraiment ce à quoi cela ressemble en pratique. Il s’agit de mettre cette capacité au-dessus des systèmes d’enregistrement. Ainsi, si vous vous souvenez de l’exemple de Waze et des autres applications de cette plateforme, comment elles extraient des informations des systèmes d’enregistrement dans différents domaines fonctionnels et normalisent les données afin que des applications faciles à utiliser puissent être présentées pour soutenir notre prise de décision. C’est exactement le type d’architecture qui est à notre disposition aujourd’hui dans nos agences gouvernementales, pour pouvoir transformer notre façon de travailler en interne afin de fournir au citoyen [002400] des services à consommer de la manière dont nos citoyens sont habitués à les consommer. Tous ces services sont disponibles sur téléphone portable, très orientés vers les flux de travail et faciles et intuitifs à utiliser. Cela vous semble logique jusqu’à présent ? Ça vous paraît bien ? Vous en voulez n’est-ce pas ? C’est plutôt cool. Voici à quoi cela ressemble une plateforme commune qui dispose d’une suite native et entièrement intégrée de capacités d’apprentissage automatique, basée sur des applications et un modèle de données unique qui extrait des informations d’autres systèmes d’enregistrement et les renvoie à ceux qui sont appropriés dans votre architecture. Cette base pour la prestation de services est soutenue par une suite complète d’applications qui est pré-construite avec les meilleurs processus de l’industrie, représentant les flux de travail automatisés de l’informatique, de la gestion des services et de la gestion d’entreprise, qui est la façon dont vous gérez l’informatique [002500] comme une entreprise, dans des opérations de sécurité qui donnent une vue contextuelle de l’ensemble de l’entreprise sur ce qui se passe dans la structure de l’organisation. C’est la clé du succès. Il faut disposer d’informations fiables pour que les applications puissent s’exécuter dans un système d’intégration et de désintégration des RH très riche et interactif, entièrement mobile, qui permet d’accompagner un nouvel employé, un nouveau contractant, une nouvelle personne de soutien, depuis le recrutement jusqu’à sa libération, que ce soit en cas de départ à la retraite ou de licenciement, sur la base d’une application facile à utiliser. La possibilité de développer des applications personnalisées qui prennent en charge les flux de travail ou les processus propres à votre agence. Il n’y a donc pas de taille unique. Nous donnons les meilleures applications de la gamme, qui sont entièrement configurables [002600], mais certains processus sont propres à votre agence au sein du gouvernement. Vous pouvez donc écrire une application personnalisée très facilement sur la plateforme car vous utilisez un modèle de données unique et une logique d’application commune à toute la plateforme. Tout est interopérable en natif, tout en tirant parti des informations stockées dans ce référentiel de données commun, que nous appelons base de données de gestion de la configuration. Et puis le service à la clientèle. Ça, c’est le visage de vos citoyens. Il ne s’agit pas seulement de gérer les cas où le citoyen essaie d’obtenir le service X de votre agence, mais d’automatiser l’ensemble du flux de travail, de satisfaire cette demande du début à la fin, et de pouvoir disposer de rapports et d’intelligence artificielle pour chaque aspect de ce déploiement. Jaimie a parlé des incendies en Colombie-Britannique. De même aux États-Unis, les pompiers utilisent actuellement [002700] la plateforme ServiceNow pour cette analyse prédictive de l’endroit où ils devraient mettre en place les pompiers dans le pays, en se basant sur toutes les données recueillies auprès des météorologues chaque saison. C’est une application plutôt cool en fait. C’est donc logique ? Vous disposez donc de toutes ces possibilités sur la plateforme, prêtes à l’emploi, et accessibles par abonnement. Ce n’est donc pas différent de la plateforme de divertissement que nous utilisons à la maison, que ce soit Sky TV ou Rogers ou DirecTV, Dish, ou tout autre Comcast. Vous vous abonnez seulement à ce que vous voulez. Mais tout est là sur la plateforme, certifié et accrédité dans votre organisation par le biais des centres de données qui sont entièrement certifiés et accrédités aux niveaux de sécurité que votre agence exige. J’ai donc tout un tas d’informations sur les conversations de chacun des secteurs de l’agence auxquels je ne vais pas consacrer beaucoup de temps aujourd’hui – cette présentation [002800] est à votre disposition. Mais ils passent en revue chacune des capacités des suites d’applications autour de ce que j’appelle ce ballon de foot, des capacités de la plate-forme qui vous permettent de commencer le processus de modernisation, où que vous soyez dans votre agence, afin que vous puissiez innover et ensuite transformer la façon dont vous faites des affaires. Nous appelons cela l’IA pratique parce que nous avons compris le plus difficile. Vous n’avez pas à vous soucier du type d’IA dont il s’agit, de la manière de l’intégrer, de la manière de l’obtenir. Elle est là, sur la plateforme, et disponible. Tout ce que vous avez à faire, c’est de déterminer les résultats que vous recherchez et les scripts de flux de travail qui vont soutenir les décisions de l’application à laquelle vous l’appliquez. Nous faisons deux lancements par an, donc nous renouvelons constamment la technologie. L’un des défis que j’ai toujours eu à relever en tant que DPI est de savoir comment continuer à fournir de nouvelles technologies avec le processus d’acquisition [002900] que nous avons au sein du gouvernement. La façon d’y parvenir est de s’abonner à une plate-forme qui fournit continuellement ces nouvelles capacités dans le cadre de cet abonnement. C’est donc mon discours. J’espère que vous l’avez apprécié. J’espère que vous en avez tiré profit. Veuillez faire un tour à notre conteneur. Si vous avez d’autres questions, nous serions heureux de vous parler de la manière dont nous pouvons vous aider à transformer votre agence pour qu’elle puisse fournir ce type de services modernes aux citoyens. Merci beaucoup.
liodrey Messages 45 Enregistré le 13 Juin 2013 Résidence / Quartier / Activité Le Belvédère Escalier Bâtiment B A remercié 0 A été remercié 2 fois TUTO Contrôler sa Domotique avec Siri Bonsoir, J'ai réalisé aujourd'hui un plugin pour le projet homebridge, qui permet d'émuler des appareils compatibles HomeKit Technologie d'Apple pour la domotique. Ce plugin permet de contrôler tout le matériel Lumière, Volets et sondes de température sur une application iPhone / iPad, iWatch, et bientôt apple TV, des appartement du Fort équipés de domotique. Pour l'utiliser, il faut installer chez soi sur un PC, VM, serveur, nas... le logiciel homebridge et ajouter le plugin homebridge-own Les instructions sont sur la page github du plugin. Une fois le serveur en route, il suffit d'installer sur son device une application générique HomeKit comme Hesperus, gratuite et très bien conçue. Une fois paramétrée, on peut voir tous les appareils détectés dans l'application, et les renommer / regrouper en "Room" pour que ça fonctionne bien avec Siri. Ensuite, de simples commandes vocales comme "Bonne nuit" permettent d'éteindre toutes les lumières, et fermer tous les volets. Avec un VPN, le contrôle à l'extérieur fonctionne également. Si vous avez l'occasion de tester cette solution, de me remonter des bugs, des fonctionnalités souhaitées au niveau du plugin uniquement , n'hésitez pas ! Lionel Laetic Modérateur Messages 1145 Enregistré le 14 Oct 2011 Résidence / Quartier / Activité Ovélys A remercié 99 fois A été remercié 57 fois Re TUTO Contrôler sa Domotique avec Siri Message par Laetic » 07 Aoû 2016 Top ! Donc pas besoin d'être équipé avec HomeKit ? gromk Messages 272 Enregistré le 14 Jan 2014 Résidence / Quartier / Activité Ô Paris A remercié 8 fois A été remercié 18 fois Re TUTO Contrôler sa Domotique avec Siri Message par gromk » 07 Aoû 2016 Très intéressant, merci ! Pour information, il existe aussi pour créer votre assistant vocal personnel façon Jarvis dans Iron Man ou Sarah dans Eureka donc, que je ne connaissais pas Le projet est français, actif et une communauté plutôt importante l'accompagne. Trois "inconvénients" 1 Cela se destine quand même à un public averti ce n'est pas du "click & play". Un peu de configuration en perspective donc... J'avais rédigé des embryons de script et de grammaire pour le faire marcher sur nos installations OpenWebNet, si ça en intéresse certains je les mettrai en ligne pour aider à démarrer. 2 Il faut un micro performant, sans quoi la reconnaissance vocale est mauvaise une fois éloigné du micro ou dès qu'un bruit de fond est présent. Pour mes tests, le micro intégré au laptop était suffisant, mais il a vite montré ses limites. Apparemment, le meilleur rapport qualité-prix serait... le Kinect de Microsoft ! 3 LE point noir, qui personnellement m'a dissuadé d'aller plus loin pour l'instant la reconnaissance vocale est celle de Windows, et donc un ordinateur doit tourner en permanence pour faire fonctionner Pas possible de faire touner sur un NAS ou sur une tablette pour le moment... liodrey Messages 45 Enregistré le 13 Juin 2013 Résidence / Quartier / Activité Le Belvédère Escalier Bâtiment B A remercié 0 A été remercié 2 fois Re TUTO Contrôler sa Domotique avec Siri Message par liodrey » 07 Aoû 2016 Oui, un ami a essayé c'est vrai que le fonctionnement uniquement sous windows est très a écrit Top ! Donc pas besoin d'être équipé avec HomeKit ? Exactement, sans équipement supplémentaire. Homebridge permet de lier les commandes HomeKit, à n'importe quelle action programmable. J&MC Modérateur Messages 508 Enregistré le 07 Avr 2015 Résidence / Quartier / Activité Visio A remercié 80 fois A été remercié 72 fois Re TUTO Contrôler sa Domotique avec Siri Message par J&MC » 07 Aoû 2016 J'ai essayé Yana, c'était pas mal, je pouvais gérer à la voix mes lumières et volets, mais je devais lancer l'appli, lancer l'écoute puis énoncer ma commande vocale. Bref bien trop d'étape pour juste allumer une lumière. L'idéal pour moi serait une écoute permanente des sons de l'appart mais plusieurs points problématique. - comme dit plus haut, la qualité du micro, - avoir plusieurs micro pour être audible dans chaque pièce, - ne pas avoir un pc allumé h24 juste pour écouter quelques dizaines de commandes par jour le coût serait trop important. Le mieux serait de fonctionner sur un raspberry, comme le fait Yana, - avoir la reconnaissance vocale qui se fait en local comme Jarvis et non via les serveurs Siri ou les serveurs google comme Yana, pour des raisons de confidentialité. Bref pour le moment aucune solution n'est parfaite et à mon sens on est pour le moment plus dans un effet geek que réellement pratique et utilisable h24. Mais peut-être demain ? Romain et Margaux Messages 347 Enregistré le 30 Juil 2013 Résidence / Quartier / Activité Horizon A remercié 5 fois A été remercié 12 fois Re TUTO Contrôler sa Domotique avec Siri Message par Romain et Margaux » 08 Oct 2016 Bonjour Lionel, C'est super que tu aies créé un plugin homebridge. Je m'étais penché sur la question au mois de juin, avec le plugin myhome, mais je n'ai jamais pu le faire fonctionner, même avec l'aide de son concepteur. Mais qu'importe car le tiens a l'air mieux fait, ne serait-ce que par sa capacité à détecter les appareils. Bon mais il ne fonctionne pas du premier coup chez moi, peut-être peux-tu m'aider ? "homebridge" a l'air de bien démarrer et de bien charger ton plugin Code Tout sélectionnerromainrobot ~/.homebridge % homebridge [10/8/2016, 35816 PM] Loaded plugin homebridge-own [10/8/2016, 35816 PM] Registering platform ' [10/8/2016, 35816 PM] - [10/8/2016, 35816 PM] Loaded with 0 accessories and 1 platforms. [10/8/2016, 35816 PM] - [10/8/2016, 35816 PM] Loading 1 platforms... [10/8/2016, 35816 PM] [MyHome] Initializing own platform... [10/8/2016, 35816 PM] [MyHome] Constructing platform... [10/8/2016, 35816 PM] [MyHome] Fetch OWN accessories [10/8/2016, 35818 PM] [MyHome] Lights ["*1*0*11","*1*0*13","*1*0*14","*1*0*15","*1*0*16","*1*0*19","*1*0*21"] [10/8/2016, 35819 PM] [MyHome] Automations ["*2*0*41","*2*0*44"] [10/8/2016, 35828 PM] [MyHome] Temp sensors ["*4*1*0*0203","*4*2*0*0211"] [10/8/2016, 35828 PM] [MyHome] Initializing platform accessory 'light 11'... [10/8/2016, 35828 PM] [MyHome] Initializing platform accessory 'light 13'... [10/8/2016, 35828 PM] [MyHome] Initializing platform accessory 'light 14'... [10/8/2016, 35828 PM] [MyHome] Initializing platform accessory 'light 15'... [10/8/2016, 35828 PM] [MyHome] Initializing platform accessory 'light 16'... [10/8/2016, 35828 PM] [MyHome] Initializing platform accessory 'light 19'... [10/8/2016, 35828 PM] [MyHome] Initializing platform accessory 'light 21'... [10/8/2016, 35828 PM] [MyHome] Initializing platform accessory 'automation 41'... [10/8/2016, 35828 PM] [MyHome] Initializing platform accessory 'automation 44'... [10/8/2016, 35828 PM] [MyHome] Initializing platform accessory 'temp sensor 1'... [10/8/2016, 35828 PM] [MyHome] Initializing platform accessory 'temp sensor 2'... Scan this code with your HomeKit App on your iOS device to pair with Homebridge ┌────────────┐ │ 012-34-567 │ └────────────┘ [10/8/2016, 35828 PM] Homebridge is running on port 51826. Mais lorsque je démarre l'appli "Maison" sur iOS 10 et que je tappe sur ajouter un accessoire, il ne découvre rien. Que dois-je faire ? Romain et Margaux Messages 347 Enregistré le 30 Juil 2013 Résidence / Quartier / Activité Horizon A remercié 5 fois A été remercié 12 fois Re TUTO Contrôler sa Domotique avec Siri Message par Romain et Margaux » 09 Oct 2016 Ça fonctionne ! Je n'avais pas suffisamment approfondi, le README de homebridge avait pourtant la solution My iOS App Can't Find Homebridge Two reasons why Homebridge may not be discoverable 1. Homebridge server thinks it's been paired with, but iOS thinks otherwise. Fix deleted persist/ directory which is next to your 2. iOS device has gotten your Homebridge username looks like a MAC address "stuck" somehow, where it's in the database but inactive. Fix change your username in the "bridge" section of to be some new value. Il m'a suffit de modifier le username dans le de homebridge pour qu'il soit de nouveau détecté. Je peux enfin commander tous les éclairages de mon appartement avec une interface aboutie, et à la voix. Je me retenais depuis l'emménagement d'investir dans l'application iMyHome, dont les 38 euros ne me paraissaient pas justifiés. J'ai un problème avec les volets roulants, et toi ? Ils sont constamment identifiés comme "Ouvert à 50%" par l'applcation Maison d'iOS 10. Lorsque je les actionne via Siri, j'obtiens en retour "Désolé, je n'ai pas reçu de réponse du système." Il m'est impossible d'enclencher leur fermeture et de l'interrompre à mi-chemin. La solution permet soit de les fermer entièrement, soit des les ouvrir entièrement. Je crois savoir que les modules ne permettent pas de déterminer à quel niveau ils se trouvent. Peut-être est-ce une incompatibilité avec le protocole HomeKit ? Ou bien est-ce ma configuration qui pose problème ? C'est probablement beaucoup plus complexe à mettre en oeuvre, mais je ne parviens pas à faire fonctionner l'onglet "Automatisation" de l'application Maison d'iOS 10. J'ai pourtant suivi scrupuleusement les instructions d'Apple pour configurer mon Apple TV 4 comme concentrateur, mais ça ne fonctionne pas. Est-ce une limite de homebridge, de ton plugin, de ma configuration, de mon réseau ? En tout cas c'est déjà un très bon début. Je me retiens depuis mon emménagement d'investir dans d'autres équipements domotique, tels que des ampoules Philips Hue ou une prise connectée Elgato Eve Energy, car je ne voulais pas faire les choses qu'à moitié et refusais de jongler avec plusieurs solutions. Grâce à ton plugin je vais enfin pouvoir compléter l'installation Bticino MyHome de lampes sur pied Philips Hue et rendre tout l'éclairage télécommandable. Donc un grand merci ! Y0nii Messages 72 Enregistré le 31 Mai 2015 Résidence / Quartier / Activité Le Belvédère A remercié 0 A été remercié 1 fois Re TUTO Contrôler sa Domotique avec Siri Message par Y0nii » 16 Oct 2016 Merci beaucoup déjà pour ton plugin et pour cette découverte ! Cependant j'ai une erreur hmebridge se lance bien mais au moment de lancer le plugin il pete une erreur dont voici la stack traceCode Tout sélectionner/usr/local/lib/node_modules/homebridge/lib/ var username = ^ TypeError Cannot read property 'username' of undefined at /usr/local/lib/node_modules/homebridge/lib/ at new Server /usr/local/lib/node_modules/homebridge/lib/ at /usr/local/lib/node_modules/homebridge/lib/ at Object. /usr/local/lib/node_modules/homebridge/bin/homebridge1722 at at at at at at startup at te dit quelque chose ? pour info je suis sur mac Romain et Margaux Messages 347 Enregistré le 30 Juil 2013 Résidence / Quartier / Activité Horizon A remercié 5 fois A été remercié 12 fois Re TUTO Contrôler sa Domotique avec Siri Message par Romain et Margaux » 16 Oct 2016 Un problème de syntaxe dans ton .homebridge/ ? L'oubli d'une virgule en fin de ligne ? un classique Voici à quoi ressemble le mien Code Tout sélectionner{ "bridge" { "name" "Homebridge", "username" "CC223DE3CE32", "port" 51826, "pin" "012-34-567" }, "platforms" [ { "platform" "own", "name" "MyHome", "server" " } ] } Y0nii Messages 72 Enregistré le 31 Mai 2015 Résidence / Quartier / Activité Le Belvédère A remercié 0 A été remercié 1 fois Re TUTO Contrôler sa Domotique avec Siri Message par Y0nii » 16 Oct 2016 Bien joué ! Je n'avais pas la partie bridge ! D'ou le username à nil lol. Merci ! liodrey Messages 45 Enregistré le 13 Juin 2013 Résidence / Quartier / Activité Le Belvédère Escalier Bâtiment B A remercié 0 A été remercié 2 fois Re TUTO Contrôler sa Domotique avec Siri Message par liodrey » 17 Oct 2016 Romain et Margaux a écrit J'ai un problème avec les volets roulants, et toi ? Moi aussi, l'api de Homebridge peut-être aussi celle de Homekit des volets demande un "état d'ouverture" qui n'existe pas sur nos systèmes bticino On a réellement les trois états Arrêté, en montée, en descente, et homekit attend les états Niveau de descente, status montée, descente... J'ai essayé de convertir les états dont on dispose en donnant la valeur 50% en permanence et lors qu'on demande une valeur > 50, je dis aux volets de monter, et Comptes > iCloud > Homekit [Connecté] Maintenant, on peut utiliser SIRI de l'apple TV pour les commandes vocales, et surtout, obtenir un accès à distance des commandes sans être sur le réseau domestique. Y0nii Messages 72 Enregistré le 31 Mai 2015 Résidence / Quartier / Activité Le Belvédère A remercié 0 A été remercié 1 fois Re TUTO Contrôler sa Domotique avec Siri Message par Y0nii » 17 Oct 2016 Je m'amuse bien moi depuis hier soir. Merci beaucoup Faudrait essayer de voir pour avoir une commande stop pour arreter les volet. Je ne sais pas comment fonctionne exactement ton plugin pour le moment mais tu penses que ça serait possible d'entrer dans la config le temps de montee/descente des stores, et quand on descend les stores à 30 % via Homekit descendre les stores, lancer un timer de le temps dans la config puis lancer Stop. Apres encore faut-il connaitre l'etat de départ .. Je sais pas si je suis clair et si c'est possible par contre .. liodrey Messages 45 Enregistré le 13 Juin 2013 Résidence / Quartier / Activité Le Belvédère Escalier Bâtiment B A remercié 0 A été remercié 2 fois Re TUTO Contrôler sa Domotique avec Siri Message par liodrey » 17 Oct 2016 Oui, j'ai pensé à une estimation du niveau du volet, mais elle peut être facilement faussée par une action via l'interrupteur ou la tablette, mais c'est peut etre mieux que rien. Est ce que certains ont une gestion d'intensité lumineuse via le système MyHome? Romain et Margaux Messages 347 Enregistré le 30 Juil 2013 Résidence / Quartier / Activité Horizon A remercié 5 fois A été remercié 12 fois Re TUTO Contrôler sa Domotique avec Siri Message par Romain et Margaux » 17 Oct 2016 liodrey a écrit Romain et Margaux a écrit J'ai un problème avec les volets roulants, et toi ? Moi aussi, l'api de Homebridge peut-être aussi celle de Homekit des volets demande un "état d'ouverture" qui n'existe pas sur nos systèmes bticino … Je regarderai pour au moins ne plus avoir l'erreur "aucune réponse du système". Je m'en doutais pour l'incompatibilité ! Ce serait bien de ne pas avoir de message d'erreur en effet, le reste serait du bonus. Mais la force de ton plugin est qu'il ne nécessite presque aucun paramétrage. Si tu contournais l'incompatibilité MyHome / HomeKit avec une méthode détournée comme un chronométrage, je crois que ce serait bien que ça reste facultatif, et à configurer a écrit J'ai pu faire marcher le concentrateur de l'apple TV, depuis iOS 10, la double authentification est présente sur l'apple TV, j'ai du déconnecter mon compte iCloud, puis le reconnecter, l'appartement apparaît maintenant dans Réglages > Comptes > iCloud > Homekit Je n'avais pas essayé de déconnecter et reconnecter mon compte iCloud. Et c'est après avoir choisi ce compte également pour le "Partage à domicile" que ça s'est mis à fonctionner. Je ne suis pas certain que ce soit la raison, peut-être fallait-il un délai et que ça n'a été qu'une coïncidence. En tout cas ça fonctionne ! Ce qui est génial c'est que Margaux peut désormais utiliser la télécommande de l'Apple TV, qui est toujours à portée de main, contrairement à mon iPhone ou même à l'iPad que j'emporte parfois avec moi. Merci 1000 fois encore pour ce plugin !! Je vais maintenant essayer le plugin permettant d'accéder à homebridge depuis un navigateur Web, ce qui assurerait un service minimum sur mon Nexus 5X ou sur des ordinateurs. Frédéric Administrateur Messages 6829 Enregistré le 15 Sep 2011 Résidence / Quartier / Activité Ô Paris A remercié 310 fois A été remercié 142 fois Contact Re TUTO Contrôler sa Domotique avec Siri Message par Frédéric » 18 Oct 2016 Merveilleuse technologie contemporaine ! Merci à vous pour le partage et les explications ! Romu Messages 255 Enregistré le 15 Mar 2013 Résidence / Quartier / Activité Le Belvédère A remercié 2 fois A été remercié 1 fois Re TUTO Contrôler sa Domotique avec Siri Message par Romu » 18 Oct 2016 Bonjour , Pour utiliser ce système , est ce que l' ordi sur lequel est installé le kit homebridge doit être allumé où est ce qu on peut tout contrôler via le tel ou la tablette de manière indépendante ? Doit on être obligatoirement sous ios 10 ? Par avance merci liodrey Messages 45 Enregistré le 13 Juin 2013 Résidence / Quartier / Activité Le Belvédère Escalier Bâtiment B A remercié 0 A été remercié 2 fois Re TUTO Contrôler sa Domotique avec Siri Message par liodrey » 18 Oct 2016 Oui, en effet, il faut un ordi allumé en permanence pour transmettre les commandes au système MyHome. Un raspberry PI peut faire l'affaire. Sinon le système fonctionne normalement avec iOS8 et iOS9 depuis le développement de HomeKit par Apple. tara94 Messages 1 Enregistré le 09 Mar 2017 Résidence / Quartier / Activité Visiteur A remercié 0 A été remercié 0 Re TUTO Contrôler sa Domotique avec Siri Message par tara94 » 09 Mar 2017 Bonjour tout le monde, Serait-il possible d’avoir un Tuto sur la manière de procéder J’ai fait équiper ma maison de domotique Myhome de chez Legrand alarme, volet, éclairage J’aimerais également pouvoir contrôler cette installation via Siri sur iphone. Étant novice je n’arrive pas à comprendre comment fonctionne la procédure d’installation. Peut-on faire ça avec un raspberry pie 3 et surtout comment. Merci d’avance à tous ce qui pourra m’aider pour ce projet. liodrey Messages 45 Enregistré le 13 Juin 2013 Résidence / Quartier / Activité Le Belvédère Escalier Bâtiment B A remercié 0 A été remercié 2 fois Re TUTO Contrôler sa Domotique avec Siri Message par liodrey » 13 Mar 2017 Bonjour Tara94, En effet, ça peut marcher sur un raspberry pi 3, je posterai un tuto dans les prochains jours. Quel système d'exploitation est sur le raspberry ? Si rien n'est encore installé, Raspbian pourra faire l'affaire. ... ng-images/ Retourner vers Vie pratique »
Étant donné le nombre de questions à ce sujet dans les commentaires, je me disais qu’il pourrait être intéressant de profiter de la cohorte d’experts que j’ai la chance de compter dans mes lecteurs pour faire un ptit tempetage de tête’ ou brainstorming si vous y tenez à propos des solutions de reconnaissance/synthèse vocales existantes et applicables dans un projet informatique entre autres, yana. Ça devrait tout du moins me permettre de centraliser un peu mes recherches et constats concernant cette techno encore peu accessible aux gueux que nous sommes malgré les stupéfiants mais réservés progrès de google, apple et microsoft en la matière. Voilà mon “état de l’art” sur le sujet oui, je me la joue académique cette semaine Besoin J’ai besoin d’une librairie de reconnaissance et de synthèse vocale intégrable dans une solution domotique yana Cette librairie doit être 1 – Portable sur 3 minimum debian raspbian, windows, macOs 2 – Illimitée en nombre de requêtes, permettre l’écoute/la parole continue 3 – Si possible ne pas nécessiter le web 4 – Être gratuite ou low cost avec un cout ponctuel et non cyclique 5 – Être performante en terme de compréhension de la phrase énoncée, même sur un micro non spécialisé 6 – Ne pas être limitée en termes, en mots, en nombres d’expressions, ne pas être dépendant d’un fichier de phrases “statiques” 7 – Prendre en charge la langue française Reconnaissance vocale Voyons ce qui existe aujourd’hui Windows speech recognition API Remplis tous les points sauf le n°1 disponible sous windows vista et supérieure uniquement, sans ça se serait la solution parfaite Google speech API Remplis tous les points sauf le 2 il faut une clé, c’est limité a 50 requêtes par jours et le 3 api passant par le web Sphinx/PocketSphinx Ne remplis pas le n°6 utilise un système de modèle acoustique, laborieux, lourd, statique. Il en existe un en français mais limité a 10/20 mots non pertinents. Julius Non testé Simon Non testé SIRI api ne remplis pas les point n°4 et n°3, j’ignore si il existe une limite de requetes quotidienne. Arduino Easyvr ne remplis pas les point 6 et 1 llimité en nombres de mots et installable sur arduino uniquement. Android speech Respecte toutes les conditions sauf la n°1 dispo uniquement sous android Voce utilise pocketshpinx /sphinx, donc même problème question francophonie et dynamisme des phrases API Wit fonctionne très bien, bonne pertinence, même pour le français, mais api htp hyper lente environ 7secondes de retour pour une phrase courte Pour répondre direct à la question qui revient régulièrement dans les commentaires Non, et aussi LISA n’est pas une solution de reconnaissance vocale mais un simple CMS qui utilise PocketSphinx et donc qui est inapplicable dans notre système domotique a moins de parler couramment anglais avec la bonne intonation sinon c’est mort à votre maison. Le plus gros HIC étant que même en combinant les librairies, on n’arrive pas à quelque chose de concluant dans le monde linux. Synthèse vocale De ce côté là c’est déjà plus simple bien que pas encore parfait Google speech en bricolant un peu on arrive a obtenir la jolie voix de google en synthèse vocale, mais on est jamais certains que google verrouille pas ce service sous peu. Espeak Respecte toutes les conditions mais à une voix de canard éraillé très vites agaçante Windows text to speec API Respecte toutes les conditions sauf la n°1 dispo uniquement sous windows Voxygen Voix magnifiques ultra réalistes, mais visiblement pas d’api/libs à disposition des simples mortels, même en payant. Android speech Respecte toutes les conditions sauf la n°1 dispo uniquement sous androïde Pour la synthèse je suis actuellement partis sur le combo suivant pour yana4All Si l’OS est windows, on prend l’api windows locale, performante, dynamqieu etc… sinon… On utilise l’api google speech dans le cas ou l’on a bien internet, sinon… On utilise espeak qui est moche mais qui a le mérite de fonctionner gratuitement partout et en restant locale. Cette parti est déjà implémentée à yana4All. Méthodes alternatives – Trouver une machine pouvant faire tourner Windows a bas coût à trouver – Microsoft Sharks Cove à l’air de faire tourner du windows mais elle coute dans les 300$ – hummingboard, bananapi,ne semblent pas pouvoir faire tourner windows – beaglebones dispose visiblement d’un “Windows Embedded BSP” mais j’ignore si ça embarque ce qu’il faut pour de la reco – La MinnowBoard MAX semble aussi pouvoir faire tourner Windows mais 178€, 81€ pour l’entré de gamme qui a l’air violemment bridée – Installer android sur le pi ou trouver une machine low cost capable de faire tourner au minimum android reco locale et déporter yana sur ce système pour bénéficier du nouveau sdk local d’android pour la reconnaissance Si android tourne bien sur le pi SI on peux y placer la version qui embarque le sdk locale de reco/synthèse et SI on peux bien gérer les gpio et autres prérequis de yana – UGOOS UM2 à l’air adaptée mais 75€ quand même ça pique un peu… – Trouver un webservice gratuit fiable et rapide la belle utopie – Utiliser une interface gestuelle plutôt que vocale kinects, leapmotion, thalmic myo etc… – Trouver un moyen de faire fonctionner windows speech ou dragon naturally speaking sur linux via wine ou wineHQ – Ajout de jerome Enregistrer les phrases a reconnaître et faire une comparaison entre deux fichiers mp3 la phrase a reconnaître et la phrase énoncée cf pour la comparaison par empreintes acoustiques – Ajout de YannXplorer Acheter un carte Udoo 84€ qui permet d’installer android avec la reco vocale locale, bonne solution mais encore trop cher – Ajout de raphkun Acheter un carte minnowboard-max99$ qui permet d’installer windows et sa reco vocale, même argument que pour la udoo. – Ajout de “ah merde j’ai oublié le pseudo et je retrouve pas le commentaire”On peux gruger voxygen en chopant le stream audio depuis l’url Ca fonctionne mais uniquement jusqu’au jour ou voxygen verrouillera le service. Si vous avez des idées, questions, suggestions, insultes… pour faire avancer le schmilblick, c’est à vous de “tempêter du bulbe” dans les commentaires ! 🙂
changer la voix de siri en jarvis