Page 1 sur 1

Paquets pour Spark

Posté : 08 févr. 2021 - 11:39
par fred-gie
Bonjour, je découvre WAPT et Python,

J'utilise dans mon entreprise le client de messagerie instantané Spark, j'aimerai déployer Spark grâce à WAPT.
J'ai créé le paquets de la version 2.9.4, installation et désinstallation qui fonctionne très bien.
j'aimerai en plus copier un fichier de config dans le "user_appdata".
et c'est là que j'ai besoin d'un coup de main.

J'aimerai vérifier que le dossier Spark existe dans le dossier Roaming de l'utilisateur.
Si oui je copy mon fichier dedans.
Si non je le créé le dossier Spark et je copy mon fichier dedans.

Voici les lignes de codes que j'ai créé, mais ce ne fonctionne pas, il doit manquer quelque chose, mais je ne vois pas quoi.

Code : Tout sélectionner

def session_setup():
    user_config_dir = makepath(user_appdata(),'Spark')
    Spark_Config = 'spark.properties'

     if not isdir(user_config_dir):
        mkdirs(user_config_dir)
        filecopyto (Spark_Config,user_config_dir)
    if isdir(user_config_dir):
        filecopyto (Spark_Config,user_config_dir)
Merci d'avance pour vôtre aide.

Version WAPT Server : 1.8.2
Version WAPT Agent : 1.8.2.7334
version WAPT Setup : 1.8.2.7334
Version WAPT Deploy : 1.8.2.7334

Re: Paquets pour Spark

Posté : 11 févr. 2021 - 13:45
par dcardon
Le code python est bon, mais il faut prendre en compte le contexte d'exécution. Lors de l'exécution du session_setup() le paquet a déjà été installé et les fichiers ne sont plus disponible dans le contexte d'exécution. Il faut les copier à un endroit sur la machine (par exemple le répertoire Spark dans program files ou bien dans le persistent de WAPT ) pour le récupérer lors de l'exécution de session_setup()

Re: Paquets pour Spark

Posté : 12 févr. 2021 - 14:52
par fred-gie
Bonjour et merci pour votre réponse.
j'ai modifié mon script et du coup cela fonctionne si j'execute "session-setup" depuis pyscripter, mais pas avec WAPTConsole.
J'ai l'impression qu'il n'exécute pas la section "session_setup" lors de l'installation.

Voici le script si jamais vous avez une idée

Code : Tout sélectionner

from setuphelpers import *

uninstallkey = []

def install():
    def vers_spark(key):
        return key['name'].replace('Spark','')
    install_exe_if_needed("spark_2_9_4-with-jre.exe",silentflags='-q',key='3057-7228-2063-7466',min_version='2.9.4',killbefore=['spark.exe'],get_version=vers_spark)
    uninstallkey.remove('3057-7228-2063-7466')

    #Copie du fichier config dans dossier d'install:
    Cpy_conf = makepath(programfiles32,'Spark')

    isdir(Cpy_conf)
    filecopyto ('spark.properties',Cpy_conf)
    copytree2 ('PHX-32.adiumemoticonset',makepath(programfiles32,'Spark','PHX-32.adiumemoticonset'))

def uninstall():
    run('"%s" -q' % makepath(programfiles32,'Spark','uninstall.exe'))


def session_setup():

    user_config_dir = makepath(user_appdata(),'Spark')
    Spark_Config = 'spark.properties'
    #Creation répertoire dans roaming et copie du fichiers config.
    if not isdir(user_config_dir):
        mkdirs(user_config_dir)
        filecopyto (Spark_Config,user_config_dir)
        copytree2 ('PHX-32.adiumemoticonset',makepath(user_appdata(),'Spark','xtra','emoticons','PHX-32.adiumemoticonset'))
    if isdir(user_config_dir):
        filecopyto (Spark_Config,user_config_dir)
        copytree2 ('PHX-32.adiumemoticonset',makepath(user_appdata(),'Spark','xtra','emoticons','PHX-32.adiumemoticonset'))

Merci

Re: Paquets pour Spark

Posté : 17 févr. 2021 - 11:32
par fred-gie
Bonjour,

je n'arrive pas a faire exécuter la section def session_setup():
si je la teste dans pyscripter cela fonctionne, mais il ne se passe rien lors de l'installation.
si je copie le code de session_setup, dans la section install elle fonctionne.
Faut il un argument pour forcer l'exécution de cette section ?

Merci d'avance pour vôtre aide.

Version WAPT Server Debian : 1.8.2
Version WAPT Agent : 1.8.2.7334
version WAPT Setup : 1.8.2.7334
Version WAPT Deploy : 1.8.2.7334

Re: Paquets pour Spark

Posté : 18 févr. 2021 - 10:49
par dcardon
Le session_setup() se lance avec la commande wapt-get.exe session_setup ALL dans la session de l'utilisateur en question.
Sur une install standard de l'agent WAPT la commande wapt-get.exe session_setup ALL est exécuté par défaut.

Re: Paquets pour Spark

Posté : 19 févr. 2021 - 12:39
par fred-gie
Bonjour, et merci pour votre réponse.

j'ai réécris plusieurs fois le script, mais hélas tout ne fonctionne pas.

- l'installation de l'application, la désinstallation, la création d'un dossier tmp dans le répertoire d'Install, la copie de fichier et de dossiers dans le tmp fonctionne.

Code : Tout sélectionner

# -*- coding: utf-8 -*-
from setuphelpers import *

uninstallkey = []

def install():
    def vers_spark(key):
        return key['name'].replace('Spark','')
    install_exe_if_needed("spark_2_9_4-with-jre.exe",silentflags='-q',key='3057-7228-2063-7466',min_version='2.9.4',killbefore=['spark.exe'],get_version=vers_spark)
    uninstallkey.remove('3057-7228-2063-7466')

    #Creation du dossier tmp et copie du fichier config et répertoire smilley.
    isdir(makepath(programfiles32,'Spark'))
    mkdirs (makepath(programfiles32,'Spark','tmp'))
    filecopyto ('spark.properties', makepath(programfiles32,'Spark','tmp'))
    copytree2 ('xtra', makepath(programfiles32,'Spark','tmp','xtra'))
    if not isdir(makepath(user_appdata,'Spark')):
        mkdirs(makepath(user_appdata,'Spark'))
        filecopyto (makepath(programfiles32,'Spark','tmp','spark.properties'),makepath(user_appdata,'Spark'))
        copytree2 (makepath(programfiles32,'Spark','tmp'),makepath(user_appdata,'Spark'))
    if isdir(makepath(user_appdata,'Spark')):
        filecopyto (makepath(programfiles32,'Spark','tmp','spark.properties'),makepath(user_appdata,'Spark'))
        copytree2 (makepath(programfiles32,'Spark','tmp'),makepath(user_appdata,'Spark'))
    
 def uninstall():
    run('"%s" -q' % makepath(programfiles32,'Spark','uninstall.exe'))
Le déplacement du contenu du dossier tmp vers user_appdata fonctionne en local "sur mon PC" via PyScripter, mais ne fonctionne pas avec l'agent sur le poste de destination.
J'ai modifier le wapt-get.ini du PC en question et j'ai passé le loglevel=debug, mais je n'ai pas plus d'info sur le fonctionnement.
la partie "if not" et "if" ne sont pas traité par l'agent, quel que soit sa position dans le script "def install()": ou "def session():"
Est ce un problème avec l'agent ou avec le script ?

Re: Paquets pour Spark

Posté : 09 mars 2021 - 11:37
par fred-gie
Cela fonctionne mais ce n'est pas instantané en fait.
j'ai l'impression que l'installation se fait en plusieurs étapes voir même finalisation après le reboot du pc.