cours:oc:gr7_16_17:gr7_16_17
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
cours:oc:gr7_16_17:gr7_16_17 [2017/02/14 12:40] – bmessiha | cours:oc:gr7_16_17:gr7_16_17 [2017/02/19 22:49] (Version actuelle) – [Installation] bmessiha | ||
---|---|---|---|
Ligne 91: | Ligne 91: | ||
{{: | {{: | ||
+ | |||
+ | =====RENDU FINAL===== | ||
+ | |||
+ | |||
+ | ====Reste à faire==== | ||
+ | |||
+ | Notre projet est complet et fonctionnel pour la commande du TV par des commandes vocales depuis l’utilisateur, | ||
+ | |||
+ | **Comment appliquer ça: | ||
+ | * Ajouter la possibilité de changer la télécommande (IR remote) dynamiquement avec une action en donnant en paramètre la télécommande exigée (exemple: TV Samsung). Cet action peut être exécuté avec la commande vocal du l’utilisateur. | ||
+ | * Modifier l’architecture en encapsulant en plus les services: Faire une service pour la reconnaissance vocale + une autre service pour l’analyse de la phrase reconnue, au lieu de les faire dans une seule service. Ce qui va nous donner une flexibilité pour utiliser seulement la reconnaissance vocale et aussi pour ajouter plus de fonctionnalité au niveau d’analyse (exemple: analyser la phrase pour savoir si l’utilisateur veut changer la télécommande). | ||
+ | * La service d’analyse qui sera implémentée dans la raspberry pi, va changer l' | ||
+ | * Pour contrôler un autre appareil (qui exige par exemple HTTP request), profitant de notre architecture modifié, il va falloir ajouter un bean qui utilise comme événement depuis la raspberry pi la commande vocale analysée, et exécute une action pour contrôler l’appareil (exemple: si on veut communiquer avec un smart TV avec votre objet). | ||
+ | |||
+ | ====Code Source==== | ||
+ | * Embarqué (UPnP): https:// | ||
+ | * Wcomp Source : {{: | ||
+ | ====Installation==== | ||
+ | |||
+ | ===Installation réseaux=== | ||
+ | On a configuré la rasp de sorte qu' | ||
+ | Il faut d' | ||
+ | |||
+ | Installer PuTTY pour la connection ssh | ||
+ | Utilisateur: | ||
+ | Mot de passe: root | ||
+ | |||
+ | ===Installation matérielle=== | ||
+ | * Brancher l' | ||
+ | * Brancher la carte son usb avec le micro. | ||
+ | * Brancher les boutons sur les port D2,D3,D4,D7 | ||
+ | * D2 : Commencer la reconnaissance vocale | ||
+ | * D3 : Bouton Power | ||
+ | * D4 : Bouton Mute | ||
+ | * D5 : Bouton Volume up | ||
+ | ===Installation et démarrage du raspberry=== | ||
+ | |||
+ | 1- Démarrage UPNP depuis la carte originale: | ||
+ | * Lancer | ||
+ | 2- Installation from scratch et configurations logiciels et matériels: | ||
+ | Tout d' | ||
+ | Il faut ensuite installer les composantes suivantes: | ||
+ | * Sudo apt-get install Python 2.7 Python-pip | ||
+ | * sudo pip install soappy | ||
+ | * sudo pip install twisted | ||
+ | * Telecharger et installer GrovePi via le lien suivant https:// | ||
+ | * Téléchargez le repository 1 : suivant: https:// | ||
+ | * Téléchargez le repository 2 : suivant: https:// | ||
+ | * Executez la commande “python setup.py install” depuis l' | ||
+ | * Enfin Lancer | ||
+ | |||
+ | ===Installation et démarrage du WComp=== | ||
+ | |||
+ | * Il faut ajouter le fichier binaire Raspberry_Pi_Voice_Commander.UPnP2Bean.dll sous la directoire Beans sous la directoire d' | ||
+ | * Sous SharpDevelop : Fichier → Nouveau → Fichier… → Sélectionner la catégorie WComp.Net et choisissez C#Container → Créer. | ||
+ | {{: | ||
+ | * Importer directement les containers : WComp.NET → Import … et sélectionner le fichier .wcc précédemment téléchargé. | ||
+ | |||
+ | ====Photos==== | ||
+ | |||
+ | |||
+ | |||
+ | Copie d' | ||
+ | |||
+ | {{: | ||
+ | |||
+ | Copie d' | ||
+ | |||
+ | {{: | ||
+ | |||
+ | Photo de l' | ||
+ | |||
+ | {{: |
cours/oc/gr7_16_17/gr7_16_17.1487076059.txt.gz · Dernière modification : 2017/02/14 12:40 de bmessiha