Outils pour utilisateurs

Outils du site


cours:oc:gr7_16_17:gr7_16_17

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
cours:oc:gr7_16_17:gr7_16_17 [2017/02/19 21:32]
bmessiha [RENDU FINAL]
cours:oc:gr7_16_17:gr7_16_17 [2017/02/19 23:49] (Version actuelle)
bmessiha [Installation]
Ligne 94: Ligne 94:
 =====RENDU FINAL===== =====RENDU FINAL=====
  
-====Amelioration==== 
-  * Ajouter la possibilité de changer la télécommande ( IR remote) dynamiquement avec une action en donnant en paramètre la télécommande exigée (exemple: TV Samsung). Cet action peut être exécuté avec la commande vocal du l’utilisateur. 
-  * Modifier l’architecture en encapsulant en plus les services: Faire une service pour la reconnaissance vocale + une autre service pour l’analyse de la phrase reconnue, au lieu de les faire dans une seule service. Ce qui va nous donner une flexibilité pour utiliser seulement la reconnaissance vocale et aussi pour ajouter plus de fonctionnalité au niveau d’analyse (exemple: analyser la phrase pour savoir si l’utilisateur veut changer la télécommande). 
-  * Pour contrôler un autre appareil (qui exige par exemple HTTP request), profitant de notre architecture modifié, il va falloir ajouter un bean qui utilise comme événement depuis la raspberry pi la commande vocale analysée, et exécute une action pour contrôler l’appareil (exemple: si on veut communiquer avec un smart TV avec votre objet). 
  
 ====Reste à faire==== ====Reste à faire====
Ligne 104: Ligne 100:
  
 **Comment appliquer ça:​** ​ **Comment appliquer ça:​** ​
-La service d’analyse qui sera implémentée dans la raspberry pi, va changer l'​événement de la commande qui correspond au périphérique UPNP mentionné dans la phrase de l'​utilisateur. Exemple: L’utilisateur dit “ Turn on the light”. ​En disant “the light” le périphérique choisit sera les lampes connectées,​ et la commande sera “turn on”.. ​+  * Ajouter la possibilité de changer la télécommande (IR remote) dynamiquement avec une action en donnant en paramètre la télécommande exigée (exemple: TV Samsung). Cet action peut être exécuté avec la commande vocal du l’utilisateur. 
 +  * Modifier l’architecture en encapsulant en plus les services: Faire une service pour la reconnaissance vocale + une autre service pour l’analyse de la phrase reconnue, au lieu de les faire dans une seule service. Ce qui va nous donner une flexibilité pour utiliser seulement la reconnaissance vocale et aussi pour ajouter plus de fonctionnalité au niveau d’analyse (exemple: analyser la phrase pour savoir si l’utilisateur veut changer la télécommande). 
 +  * La service d’analyse qui sera implémentée dans la raspberry pi, va changer l'​événement de la commande qui correspond au périphérique UPNP mentionné dans la phrase de l'​utilisateur. Exemple: L’utilisateur dit “ Turn on the light”. ​Le périphérique choisit sera les lampes connectées,​ et la commande sera “turn on”..  
 +  * Pour contrôler un autre appareil (qui exige par exemple HTTP request), profitant de notre architecture modifié, il va falloir ajouter un bean qui utilise comme événement depuis la raspberry pi la commande vocale analysée, et exécute une action pour contrôler l’appareil (exemple: si on veut communiquer avec un smart TV avec votre objet).
  
 +====Code Source====
 +  * Embarqué (UPnP): https://​github.com/​bichoymessiha/​PyUPnP-VoiceControl
 +  * Wcomp Source : {{:​cours:​oc:​gr7_16_17:​wcomp.zip|}}
 ====Installation==== ====Installation====
  
Ligne 118: Ligne 120:
 ===Installation matérielle=== ===Installation matérielle===
   * Brancher l'​émetteur IR dans le port RPISER (serial du raspberry pi)    * Brancher l'​émetteur IR dans le port RPISER (serial du raspberry pi) 
 +  * Brancher la carte son usb avec le micro.
   * Brancher les boutons sur les port D2,D3,D4,D7   * Brancher les boutons sur les port D2,D3,D4,D7
       * D2 : Commencer la reconnaissance vocale       * D2 : Commencer la reconnaissance vocale
Ligne 141: Ligne 144:
 ===Installation et démarrage du WComp=== ===Installation et démarrage du WComp===
  
 +  * Il faut ajouter le fichier binaire Raspberry_Pi_Voice_Commander.UPnP2Bean.dll sous la directoire Beans sous la directoire d'​installation de SharpDevelop. Ce fichier contient le UPnP device.
 +  * Sous SharpDevelop : Fichier → Nouveau → Fichier… → Sélectionner la catégorie WComp.Net et choisissez C#Container → Créer. ​
 +{{:​cours:​oc:​gr7_16_17:​container.png?​300|}}
 +  * Importer directement les containers : WComp.NET → Import … et sélectionner le fichier .wcc précédemment téléchargé.
 +
 +====Photos====
 +
 +
 +
 +Copie d'​écran de la composition
 +
 +{{:​cours:​oc:​gr7_16_17:​design.png?​400|}}
 +
 +Copie d'​écran de Device Spy
 +
 +{{:​cours:​oc:​gr7_16_17:​devicespy.png?​400|}}
 +
 +Photo de l'​objet démonté ​
 +
 +{{:​cours:​oc:​gr7_16_17:​untitled_presentation.png?​600|}}
cours/oc/gr7_16_17/gr7_16_17.1487536354.txt.gz · Dernière modification: 2017/02/19 21:32 par bmessiha