INSTALLATION C’est un brouillon ! ============================================================================================================================================ Avant de commencer : - relecture des différents documents disponibles. - envoyer un courriel récapitulatif des informations incorrectes ou manquantes (Objet : [DDD] - suXXXX - Contrôles) à BT Dépoiement et à Christian Briot. - vérifier la version de l'"OBP" installée par rapport à la matrice HP-ECS. - "local-mac-address?" à "false". - "auto-boot?" à "false". - "boot-disk" à "disk". - vérifier les autres valeurs à l'"OBP" : "diag-switch". Contrôler les "hostnames" de la DDD avec "nslookup" Sur su0349 : /etc/hosts -> IP su0413 su0413svg Lancer le script "Multi_Master" sur le serveur d'installation. MPxIO n'est pas pris en charge par JET. Activer MPxIO à l'aide de la commande "stmsboot -e" en fin d installation. Remettre PermitRootLogin à « yes » /usr/local/etc/sshd_config ps -ef | grep ssh et kill -1 - vérification du type d'OS installé : -> # uname -a -> # cat /etc/release - vérification des systèmes de fichiers (FS) montés : -> # df -h - éditer le fichier "/etc/hosts" : - ajouter une ligne pour le serveur "su0349" à partir du fichier /etc/hosts du serveur "boot/installation" : adresse_ip su0349svg3 CONFIG RESEAUX - rappel : l'installation s'est faite par l'interface "SVG" ; il reste donc deux interfaces à déclarer, soient les interfaces "CLI" et "ADM". - affichage des interfaces reconnues du système : -> # ifconfig -a - "plombage" des cartes manquantes : -> # ifconfig -a plumb - remarque : à présent, les autres interfaces sont là, mais elles ne sont pas encore configurées (inet 0.0.0.0 netmask 0). - contrôle du traffic sur l'une des interfaces : -> # snoop -d - remarque : l'adresse IP vue sur l'interface doit se rapprocher de l'adresse déclarée dans la "DDD". - configuration de l'interface : -> # ifconfig netmask broadcast + - il faut faire de même pour l'interface restante. - affichage des interfaces configurées du système : -> # ifconfig -a - configuration des masques réseau pour les trois interfaces : - utiliser un outil comme "Ipsubnetter". - éditer le fichier "/etc/netmasks" : - ajouter les trois masques réseau. - créer deux fichiers "/etc/hostname." correspondants aux deux nouvelles interfaces : - dans l'un, insérer une ligne pour l'interface "CLI" : su0204cli - dans l'autre, insérer une ligne pour l'interface "ADM" : su0204adm -> # echo 'su0204cli' > /etc/hostname. -> # echo 'su0204adm' > /etc/hostname. - modifier "su0204" en "su0204svg" dans le fichier "/etc/hostname." correspondant. - éditer le fichier "/etc/hosts" : - une ligne "...svg3" est déjà présente pour le montage "NFS". - ajouter trois lignes pour les trois interfaces : su0204 su0204adm loghost su0204cli su0204svg - vérifier la passerelle par défaut : à créer ! -> # cat /etc/defaultrouter - mise à jour du "resolver" (DNS) : !!!!! - vérifier le fichier "/etc/resolv.conf" : domain prod search prod phys.prod sfr.com cegetel.fr univers.cegetel.fr prod.cegetel.fr be.cegetel.f nameserver 10.16.112.8 nameserver 10.16.124.8 nameserver 10.16.125.8 !!!!! - vérifier la configuration du serveur de temps (NTP) : - contrôler le fichier "/etc/inet/ntp.conf" : server ntp1-0993 version 3 server ntp2-0993 version 3 server ntp3-0993 version 3 - # -> ntpq –p - Dans le terminal du serveur de "boot/installation" : - éditer le fichier "/etc/hosts" : - ajouter "su0204svg" sur la même ligne que "su0204". - Dans un autre terminal du serveur client installé : - configuration du réseau : - routes statiques : - remarques : - toujours utiliser la dernière version du document "Synthèse PAIP pour BT Serveurs" (classeur Excel). - utiliser l'onglet correspondant à la zone d'Achères : AHR3 pour la machine "su0204". - aller dans la partie "ROUTE POUR SERVEUR EN ZONE APP SAUF SGP" marquée en rouge. - afficher la table de routage actuelle : -> # netstat -rn - remarque : il manque les routes statiques. - configuration des routes statiques : - se positionner dans le répertoire "/etc/init.d" : -> # cd /etc/init.d - créer le "script shell" "conf-ethernet.ksh" : - remarque : - les informations doivent correspondre : - à la "DDD" : adresse "IP" de la passerelle de l'interface "ADM" qui trouve dans la colonne "Passerelle". - au "PAIP" : adresse "IP" de la passerelle des routes statiques qui se trouve dans la colonne "Passerelle". - ajouter les routes "NET" manquantes. - ajouter les routes "HOST" manquantes. - changer les droits du fichier "conf-ethernet.ksh" -> # chmod 744 /etc/init.d/conf-ethernet.ksh - se positionner dans le répertoire "/etc/rc2.d" : -> # cd /etc/rc2.d - créer le lien symbilique "S25conf-ethernet.ksh" : -> # ln -s /etc/init.d/conf-ethernet.ksh S25conf-ethernet.ksh - tester le "script shell" créé : -> # ./S25conf-ethernet.ksh - interfaces : - remarques : - suivant le type de carte, la déclaration de l'interface est différente. - le constructeur Sun préconise cette déclaration directement au niveau du pilote de périphérique (driver) pour, entre autres, les cartes "bge" et "ce". Pour les autres types de cartes, comme "hme" et "qfe", utiliser la commande "ndd" dans le fichier "/etc/init.d/conf-ethernet.ksh". - suivant la carte, utiliser l'une des deux méthodes suivantes : - carte de type "bge" ou "ce" : - remarque : l'exemple ci-dessous concerne une carte de type "bge". - récupérer les informations des chemins physiques des interfaces réseau : -> # cat /etc/path_to_inst | grep bge "/pci@1f,700000/network@2" 0 "bge" "/pci@1f,700000/network@2,1" 1 "bge" "/pci@1d,700000/network@2" 2 "bge" "/pci@1d,700000/network@2,1" 3 "bge" - éditer le fichier "/platform/sun4u/kernel/drv/bge.conf" : - ajouter les lignes suivantes : name="bge" parent="/pci@1f,700000" unit-address="2" adv_autoneg_cap=1 adv_1000fdx_cap=1 adv_1000hdx_cap=0 adv_100fdx_cap=0 adv_100hdx_cap=0 adv_10fdx_cap=0 adv_10hdx_cap=0; name="bge" parent="/pci@1f,700000" unit-address="2,1" adv_autoneg_cap=1 adv_1000fdx_cap=1 adv_1000hdx_cap=0 adv_100fdx_cap=0 adv_100hdx_cap=0 adv_10fdx_cap=0 adv_10hdx_cap=0; name="bge" parent="/pci@1d,700000" unit-address="2" adv_autoneg_cap=0 adv_1000fdx_cap=0 adv_1000hdx_cap=0 adv_100fdx_cap=1 adv_100hdx_cap=0 adv_10fdx_cap=0 adv_10hdx_cap=0; - "100 Full Duplex" (100fdx) : - "adv_autoneg_cap 0". - "adv_100fdx_cap 1". - "1000 Full Duplex" (1000fdx) : - "adv_autoneg_cap 1". - "adv_1000fdx_cap 1". - pour prendre en compte les modifications, il faut redémarrer le serveur : -> # init 6 - contrôler les interfaces à l'issu du redémarrage du serveur : - si Solaris 10 : -> # dladm show-dev - carte de type "hme" ou "qfe" : - ajouter une ou deux boucles "for ... ndd" (ligne # 100FD et/ou ligne # 1000FD) : - remarques : - prendre le serveur "su0203" comme référence. - il s'agit d'une interface de type "ce" ; il faut voir d'autres machines pour d'autres types d'interfaces ("bge", "hme", etc.). - "for i in ce8 ..." : "8" correspond ici à l'attachement réseau "SVG" ; voir le résultat de la commande "ifconfig -a". - "0" correspond à "inactif" et "1" correspond à "actif". - l'attachement "SVG" n'est pas systématiquement en "1000FD". - mettre à jour la boucle "100 Full Duplex" (100fdx) : - "adv_autoneg_cap 0". - "adv_100fdx_cap 1". - mettre à jour la boucle "1000 Full Duplex" (1000fdx) : - "adv_autoneg_cap 1". - "adv_1000fdx_cap 1". - prise en compte des modifications : - se positionner dans le répertoire "/etc/rc2.d" : -> # cd /etc/rc2.d - mettre à jour les routes statiques et les interfaces réseau : -> # ./S25conf-ethernet.ksh - si nécessaire, demander la bascule du "switch" de "100" en "1000" pour l'interface "SVG". - si déconnexion, se connecter à la console du serveur client installé : -> # ssh user@ -> # root - contrôles et tests : - contrôle des routes statiques installées : - afficher la nouvelle table de routage : -> # netstat -rn - remarque : les routes statiques sont là. - test de l'adresse de "broadcast" pour chaque interface : -> # ifconfig -a -> # ping -s - test de connexion via l'interface "ADM" : -> # ssh su0204adm - gestion des comptes utilisateurs : - remarque : après les modifications, vérifier que l'on peut se connecter aux différents comptes utilisateurs. - changer le mot de passe du compte "root" : -> # passwd - changer le mot de passe du compte "rootinst" : -> # passwd rootinst - remarque : "add2006". - changer le mot de passe du compte "rootsecu" : -> # passwd rootsecu - remarque : "Dragon". - changer le mot de passe du compte "rootsvg" : remarque : déjà créé, mais à déverrouiller (unlock) -> # passwd -u rootsvg -> # passwd rootsvg - remarque : "svg06S". - envoi d'un courriel à l'équipe du "BT Stockage" pour leur dire qu'elle a la main. ### ## Suite de la post-installation du socle de base (après intervention du BT Stockage) (ancienne GIT_055) # ============================================== - Se reconnecter au serveur client installé : -> # ssh root@su0204 - Vérification des systèmes de fichiers (FS) montés : -> # df -k - Il y a trois cas possibles : "SVM/SAN" (Solaris Volume Manager/Storage Area Network), "VxVM/SAN" (VERITAS Volume Manager/Storage Area Network) et "NAS" (Network-Attached Storage) : ZFS si production ! 4 scripts à lancer : ./00_preparation_fs.ksh Traitement users Traitement product Traitement varsoft Traitement interfaces Traitement database Traitement catalog ./01_zfs_socle.ksh (disque(s) à passer en paramètre, séparés pas un espace). [root@su0417:/opt/sfrsi/admin/scripts] zpool status pool: STE0993 state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM STE0993 ONLINE 0 0 0 c5t6006048000028746059453594D303238d0 ONLINE 0 0 0 c5t6006048000028746059453594D303241d0 ONLINE 0 0 0 errors: No known data errors [root@su0417:/opt/sfrsi/admin/scripts] zpool list NAME SIZE USED AVAIL CAP HEALTH ALTROOT STE0993 67G 352K 67.0G 0% ONLINE - ./03_data_migration METACLEAR d100: Soft Partition is cleared d101: Soft Partition is cleared d102: Soft Partition is cleared d103: Soft Partition is cleared d104: Soft Partition is cleared d105: Soft Partition is cleared d106: Soft Partition is cleared [root@su0417:/opt/sfrsi/admin/scripts] zfs list NAME USED AVAIL REFER MOUNTPOINT STE0993 22.0G 43.9G 24.5K none STE0993/catalog 2.00G 5.00G 31.5K /catalog STE0993/catalog/Sysload 27.5K 2.00G 27.5K /catalog/Sysload STE0993/database 25.5K 30.0M 25.5K /database STE0993/interfaces 26.5K 1024M 26.5K /interfaces STE0993/product 2.20G 7.80G 2.20G /product STE0993/users 1.51M 1022M 1.51M /users STE0993/varsoft 270K 3.00G 270K /varsoft ./01_zfs_mis.ksh (pré-requis MIS : script à modifier) - cas "SVM/SAN" : - contrôle de l'ajout de disques : -> # format AVAILABLE DISK SELECTIONS: 0. c1t0d0 /pci@9,600000/SUNW,qlc@2/fp@0,0/ssd@w2100001862f13c8e,0 1. c1t1d0 /pci@9,600000/SUNW,qlc@2/fp@0,0/ssd@w2100001862f13a4f,0 2. c2t5006016830604514d0 /pci@8,600000/SUNW,emlxs@1/fp@0,0/ssd@w5006016830604514,0 [...] - résultat attendu : un nouveau disque apparaît en plus des deux disques système internes. Ici, il s'agit du disque "2". - créer un "slice" "s0" sur le nouveau disque ayant au moins la taille de la somme des futures six partitions logicielles (soft partition) à créer : - remarque : le disque "2" correspond au nouveau disque ci-dessus. -> # format disk 2 label quit - éditer le fichier "/etc/lvm/md.tab" : - ajouter les deux lignes suivantes : d40 -m d41 1 d41 1 1 c2t5006016830604514d0s0 - remarque : le nom "c2t5006016830604514d0s0" correspond au disque "2" ci-dessus, suffixé avec "s0". - ajout des nouveaux "metadevices" dans la base de données : - remarques : - le "metadevice" "d40" est une partition logicielle (soft partition). - "d100" correspond à "/users" (500 MB). - "d101" correspond à "/product" (10 GB). - "d102" correspond à "/varsoft" (4 GB). - "d103" correspond à "/catalog" (1 GB). - "d104" correspond à "/interfaces" (1 GB). - "d105" correspond à "/database" (1 GB). -> # metainit d41 -> # metainit d40 -> # metainit d100 -p d40 500m -> # metainit d101 -p d40 10g -> # metainit d102 -p d40 4g -> # metainit d103 -p d40 1g -> # metainit d104 -p d40 1g -> # metainit d105 -p d40 1g - vérification de la base de données des "metadevices" initialisée : -> # metastat -> # metastat -p - résultat attendu : d30 -m d31 d32 1 d31 1 1 c1t0d0s3 d32 1 1 c1t1d0s3 d20 -m d21 d22 1 d21 1 1 c1t0d0s1 d22 1 1 c1t1d0s1 d10 -m d11 d12 1 d11 1 1 c1t0d0s0 d12 1 1 c1t1d0s0 d105 -p d40 -o 34580032 -b 2097152 d40 -m d41 1 d41 1 1 c2t5006016830604514d0s0 d104 -p d40 -o 32482848 -b 2097152 d103 -p d40 -o 30385664 -b 2097152 d102 -p d40 -o 21997024 -b 8388608 d101 -p d40 -o 1025472 -b 20971520 d100 -p d40 -o 1440 -b 1024000 - remarque : les lignes à partir de "d105" sont maintenant présentes. - mettre à jour le fichier "/etc/lvm/md.tab" avec les nouveaux paramètres : - si le fichier contient des commentaires à conserver, ajouter les lignes ci-dessus à partir de "d105". - si ce n'est pas le cas, tapez la commande suivante : -> # metastat -p > /etc/lvm/md.tab - construction des nouveaux systèmes de fichiers (FS) : -> # newfs /dev/md/rdsk/d100 -> # newfs /dev/md/rdsk/d101 -> # newfs /dev/md/rdsk/d102 -> # newfs /dev/md/rdsk/d103 -> # newfs /dev/md/rdsk/d104 -> # newfs /dev/md/rdsk/d105 - création des nouveaux points de montage : -> # mkdir /users -> # mkdir /product -> # mkdir /varsoft -> # mkdir /catalog -> # mkdir /interfaces -> # mkdir /database - éditer le fichier "/etc/vfstab" et ajouter les lignes suivantes : /dev/md/dsk/d100 /dev/md/rdsk/d100 /users ufs 1 yes - /dev/md/dsk/d101 /dev/md/rdsk/d101 /product ufs 1 yes - /dev/md/dsk/d102 /dev/md/rdsk/d102 /varsoft ufs 1 yes - /dev/md/dsk/d103 /dev/md/rdsk/d103 /catalog ufs 1 yes - /dev/md/dsk/d104 /dev/md/rdsk/d104 /interfaces ufs 1 yes - /dev/md/dsk/d105 /dev/md/rdsk/d105 /database ufs 1 yes - - "monter" les nouveaux systèmes de fichiers (FS) créés : -> # mountall - vérifier que les nouveaux systèmes de fichiers (FS) sont bien "montés" : -> # mount - vérifier la taille des nouveaux systèmes de fichiers (FS) : -> # df -k - cas "NAS" : - vérifier que les systèmes de fichiers (FS) sont bien créés et que la table de montage est complète : Exemple : machine "su1148". -> # df -k [...] tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_01 1048576 0 1048576 0% /catalog tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_06 4194304 3560592 633712 85% /varsoft tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_02 32768 0 32768 0% /database tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_04 17825792 1642924 16182868 10% /product tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_03 1048576 0 1048576 0% /interfaces tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_05 524288 4996 519292 1% /users -> # mount [...] /catalog on tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_01 remote/read/write/setuid/devices/hard/bg/nointr/rsize=32768/wsize=32768/timeo=600/vers=3/proto=tcp/xattr/dev=5440001 on Tue Nov 13 15:41:07 2007 /varsoft on tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_06 remote/read/write/setuid/devices/hard/bg/nointr/rsize=32768/wsize=32768/timeo=600/vers=3/proto=tcp/xattr/dev=5440003 on Tue Nov 13 15:41:08 2007 /database on tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_02 remote/read/write/setuid/devices/hard/bg/nointr/rsize=32768/wsize=32768/timeo=600/vers=3/proto=tcp/xattr/dev=5440002 on Tue Nov 13 15:41:08 2007 /product on tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_04 remote/read/write/setuid/devices/hard/bg/nointr/rsize=32768/wsize=32768/timeo=600/vers=3/proto=tcp/xattr/dev=5440004 on Tue Nov 13 15:41:08 2007 /interfaces on tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_03 remote/read/write/setuid/devices/hard/bg/nointr/rsize=32768/wsize=32768/timeo=600/vers=3/proto=tcp/xattr/dev=5440005 on Tue Nov 13 15:41:08 2007 /users on tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_05 remote/read/write/setuid/devices/hard/bg/nointr/rsize=32768/wsize=32768/timeo=600/vers=3/proto=tcp/xattr/dev=5440006 on Tue Nov 13 15:41:08 2007 -> # cat /etc/vfstab [...] tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_01 - /catalog/ nfs - yes rw,hard,bg,nointr,rsize=32768,wsize=32768,timeo=600,vers=3,proto=tcp tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_02 - /database/ nfs - yes rw,hard,bg,nointr,rsize=32768,wsize=32768,timeo=600,vers=3,proto=tcp tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_03 - /interfaces/ nfs - yes rw,hard,bg,nointr,rsize=32768,wsize=32768,timeo=600,vers=3,proto=tcp tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_04 - /product/ nfs - yes rw,hard,bg,nointr,rsize=32768,wsize=32768,timeo=600,vers=3,proto=tcp tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_05 - /users/ nfs - yes rw,hard,bg,nointr,rsize=32768,wsize=32768,timeo=600,vers=3,proto=tcp tepai-bcli33.sfr.com:/vol/vb01NU_001/qSTE_SU1148_06 - /varsoft/ nfs - yes rw,hard,bg,nointr,rsize=32768,wsize=32768,timeo=600,vers=3,proto=tcp Note : c'est SU1148 avec "SU" en majuscule. - Un certain nombre de "script shell" doivent être lancés : - se positionner dans le répertoire "/opt/sfrsi/admin/scripts" : -> # cd /opt/sfrsi/admin/scripts - installation du "package" "CONTROLM" : -> # ./steinstallp -s su0349svg3 Base/CONTROLM - configuration de "CONTROLM" : - remarques : - le répertoire utilisateur "ctmagmb" doit exister sous "/users" (sinon "mkdir -p /users/ctmagmb"). - si le "script shell" "ConfigAgent.sh" doit être relancé, il faut : - supprimer les répertoires "admin" et "ctm" sous "/product/ctmagmb". - supprimer les lignes redondantes dans le fichier "/etc/services" (port 7016/tcp). - vérifier que le shell lancé avec le compte "ctmagmb" est le "csh" (on trouve "csh" la fin de la ligne du compte "ctmagmb" dans /etc/passwd) : ctmagmb:x:217:217:CTMAGMB:/users/ctmagmb:/bin/csh (et faire "chown ctmagmb /users/ctmagmb"). - si Solaris 10 : - éditer le fichier "/etc/inetd.conf" : - ajouter une ligne "ctmagmb stream tcp nowait root /users/ctmagmb/ctm/exe/p_ctminetd p_ctminetd -e /users/ctmagmb/ctm -i INETD". - récupérer le "PID" du "process" du "daemon" "inetd" : -> # ps -ef | grep inetd - relancer un nouveau "daemon" "inetd" pour prendre en compte la modification du fichier de configuration : -> # svcadm restart svc:/network/inetd:default product ==> devient opt -> # /opt/ctmagent/admin/scripts/ConfigAgent.sh Exemple : machine "su0243". [su0243@root:/product/ctmagmb] /product/ctmagent/admin/scripts/ConfigAgent.sh NOTE: Controle E-Trust Actif... ## Choix de l'environnement de Configuration de l'agent Control-M ## 1) CEGFLAGDEV 2) CEGFLAGPFP 3) CEGFLAGPRODACH1 4) CEGFLAGPRODACH2 5) CEGFLAGPRODACH3 6) CEGFLAGPRODDW 7) CEGFLAGPRODFIXE 8) CEGFLAGPRODMOB 9) -------------------- 10) Sortie #? 2 ** Environnement de Configuration Control-M de Packaging ** NOTE: Creation du Groupe ... NOTE: Le Groupe Existe Avec GID Correct : <217>... NOTE: Creation de l'Utilisateur ... NOTE: Utilisateur Existant - UID Correct - Groupe Existant... NOTE: Creation des Repertoires Utilisateur Control-M... NOTE: Creation des Repertoires Supplementaires dans ... NOTE: Creation des Liens... rm: /product/ctmagmb/ctm/onstmt is a directory ln: cannot create /product/ctmagmb/ctm/./onstmt: File exists rm: /product/ctmagmb/ctm/procid is a directory ln: cannot create /product/ctmagmb/ctm/./procid: File exists rm: /product/ctmagmb/ctm/backup is a directory ln: cannot create /product/ctmagmb/ctm/./backup: File exists NOTE: Mise a Jour de /etc/services... NOTE: Mise a Jour du Fichier de Configuration Control-M ... /product/ctmagmb/ctm/data/CONFIG.dat => OK NOTE: Mise a Jour du Fichier de Configuration Control-M ... /product/ctmagmb/ctm/data/OS.dat => OK NOTE: Mise a Jour des Fichiers Scripts Cegetel... /users/ctmagmb/.cshrc => OK /product/ctmagmb/admin/scripts/ctm_util_varenv.sh => OK /product/ctmagmb/admin/scripts/LanceJobCycle.sh => OK NOTE: Mise a Jour Proprietaire et Droits des Fichiers de l'Agent Control-M... NOTE: Demarrage de l'Agent Control-M... svcadm: Pattern 'svc:/network/ctmagmb' doesn't match any instances svcadm: Pattern 'ctmagmb' doesn't match any instances svcadm: Pattern 'ctmagmb' doesn't match any instances svcadm: Pattern 'ctmagmb/tcp:default' doesn't match any instances Control-M Agent started. Tracker started. Pour vérifier : [root@su0413:/opt/sfrsi/admin/scripts] su - ctmagmb -c "/opt/ctmagmb/ctm/scripts/ag_diag_comm" Sun Microsystems Inc. SunOS 5.10 Generic January 2005 This procedure runs for about 30 seconds. Please wait CONTROL-M/Agent Communication Diagnostic Report ----------------------------------------------- Agent User Name : ctmagmb Agent Directory : /users/ctmagmb/ctm Agent Platform Architecture : Solaris Agent Version : 6.2.01.200 Agent Host Name : su0413(su0413adm) Server Host Name : psv1ac2pr1 Authorized Servers Host Names : psv1ac2pr1 Server-to-Agent Port Number : 7016 Agent-to-Server Port Number : 7015 Server-Agent Protocol Version : 06 Server-Agent Comm. Protocol : TCP Server-Agent Connection mode : Persistent Unix Ping to Server Platform : Succeeded Agent Ping to Control-M/Server : Failed Agent processes status ====================== Agent Router : Running (18834) Agent Listener : Running (18851) Agent Tracker : Running (19037) - installation du "package" "ECCMAD" : -> # ./steinstallp -s su0349svg3 Base/ECCMAD - installation du "package" "NETWORKER" : -> # ./steinstallp -s su0349svg3 Base/NETWORKER - installation du "package" "SYSLOAD" : -> # ./steinstallp -s su0349svg3 Base/SYSLOAD - Ctrl+C pour sortir - installation du "package" "PATROL" : - changer le mot de passe « rootool3 ». -> # ./steinstallp -s su0349svg3 Base/PATROL - Ctrl+C pour sortir - installation du "package" "UAM" : remplace scanner -> # ./steinstallp -s su0349svg3 Base/UAM -> # . /etc/profile.CA -> # /opt/uamagent/admin/scripts/start_uam_agent.ksh uamagent is started -># /opt/uamagent/admin/scripts/setScalabilityServer.ksh Positionnement du scalability Server Choisir le scalability a utiliser parmis les 8 choix suivants: (Toute valeur incorrecte entrainera la fin du programme) 1 : scuam-hrapp-prd (Serveurs HR en zone APP) 2 : scuam-hrdmz-prd (Serveurs HR en zone DMZ) 3 : scuam-renne-prd (Serveurs RENNES) 4 : scuam-leblm-prd (Serveurs LE BLANC MESNIL (Hors PRA) 5 : scuam-rvdef-prd (Serveurs RIVE DEFENSE) 6 : scuam-renne-pkg (Serveurs de packaging UAM a RENNES) 7 : scuam-rvdef-rec (Serveurs de recette UAM a RIVE DEFENSE) 8 : scuam-lbpra-prd (Serveurs PRA) --PRA Entrer le numero de la ligne du Scalability Server 1 uamagent is started The scalability server is currently at su0751. Connecting to caf on scuam-hrapp-prd to ask if a server is present... Server scuam-hrapp-prd is ok. Caf's server is now set to scuam-hrapp-prd. Caf is registering with the new server. positionnement du scalability scuam-hrapp-prd reussi avec succes - si Oracle doit être installé sur le serveur (voir la "DDD") : - Oracle 10, installation du "package" "OR10GEE3X" : -> # ./steinstallp -s su0349svg3 Options/OR10GEE3X - si le « package » « NMO » doit être installé (si RMAN demandé) : -> # ./steinstallp -s su0349svg3 Options/NMO Le 21/04/2008 : Et aussi "steinstallp -a -s su0349svg3 Base/RICHPse" (“-a” en plus). (le pkg n'est pas prêt) - installation du "PRA V2" : - remarque : voir aussi l'"URL" "http://phenope2/wiki/index.php/UNIX:Installer_le_PRA_v2". - se connecter au serveur d'installation "su0349". - prérequis : - se positionner dans le répertoire "/users/edsprai/PRAI_PREREQ_DEPLOI" : -> # cd /users/edsprai/PRAI_PREREQ_DEPLOI - lancer le "script shell" suivant : -> # ./prerequis.ksh su0204 - remarque : il ne doit pas y avoir de "NOK". - en fonction des "NOK" : - activer "remsh" : - si Solaris 8 : -> # ? - si Solaris 10 : -> # svcadm -v enable svc:/network/shell:default - créer manuellement le compte "edsprai" : - remarque : ce compte est à créer sur la machine cliente ! - éditer le fichier "/etc/passwd" : - ajouter une ligne "edsprai:x:251:251:PRAI_no_login:/users/edsprai:/bin/ksh". - éditer le fichier "/etc/group" : - ajouter une ligne "edsprai::251:". - éditer le fichier "/etc/shadow" : - ajouter une ligne "edsprai:COMPTENOLOGIN1:0::::::". - création de la HOME directory du compte edsprai : -> # mkdir -p /users/edsprai ; chown -R edsprai:edsprai /users/edsprai - s'il y a un problème "ssh" : - création de liens symboliques : Par exemple : -> # cd /bin -> # ln -s /usr/local/bin/ssh ssh -> # ln -s /usr/local/bin/scp scp -> # ln -s /usr/local/bin/ssh-keygen ssh-keygen -> # ./deploiement-ssh-etrust.ksh su0204 - installation : - se positionner dans le répertoire "/users/edsprai/LIVRAISON" : -> # cd /users/edsprai/LIVRAISON - éditer le fichier "LISTE.txt" : - renseigner l'adresse IP de l'attachement "SVG" du serveur client installé. - sauvegarde du répertoire "LIVRAISON" existant : - se positionner dans le répertoire "/users/edsprai" -> # cd .. -> # tar cvf LIVRAISON.tar LIVRAISON - lancer le "script shell" suivant : -> # ./livre.sh - remarques : - entrer le nom du serveur : "su0204svg". - entrer "yes" pour désinstaller les anciens "packages" de "PRA". - voir aussi "VLan tagging". - installation du "package" "ETRUST" : obsolete - attention : ce "package" doit être installé en dernier ! -> # ./steinstallp -s su0349svg3 Base/ETRUST - redémarrer le serveur : -> # init 6 ### ## Finalisation (suite ancienne GIT_055) # - Création de la fiche de recette du serveur à partir du modèle SFR. - Mettre à jour "Phenope" : statut du serveur ; ajouter un message "Nouveau socle STE022008" - Attacher la fiche de recette du serveur à la tâche dans Service Center. - Fermer la tâche dans Service Center. ### ## Configurations particulières du réseau # - Configuration des cartes réseaux "ADM" et "SVG" en "VLAN Tagging" (802.1q) : - remarques : - les cartes Ethernet de type "ce" "ce(7D)" sont supportées sous Solaris 8 et 10. - les cartes Ethernet de type "bge" "bge(7D)" sont supportées à partir de Solaris 9, et elles ne peuvent donc être configurées que sous Solaris 10. - pour les autres types de cartes Ethernet "hme", "qfe", etc., je n'ai pas vu de cas concrets. - voici la formule à appliquer pour pouvoir configurer correctement une carte en "VLAN Tagging" : - ("VLAN ID" x 1000) + n° d'instance de la carte. - exemple de calcul pour la première instance d'une carte de type "ce" pour un "VLAN ID" de "2021" : (2021 x 1000) + 1 = 2021001 - configuration de la carte "ce1" : -> # ifconfig ce2021001 plumb up -> # echo 'su0203adm' > /etc/hostname.ce2021001 - Configuration de l'"IP MultiPathing" (IPMP) (mode actif-passif) : - remarques : - toutes les informations sont dans la "DDD". - les interfaces utilisées sont "CLI" et "ADM". - modifier "/etc/inet/ipnodes". - éditer le fichier "/etc/hosts" : - remarque : il est indispensable de mettre les commentaires ci-dessous sur chaque ligne pour une meilleure compréhension ; Il faut aussi remplacer les noms de "devices" entre parenthèse par le nom de "device" adéquate. - ajouter/modifier deux lignes pour les deux adresses physiques : 10.42.66.200 su0917-cli1 # adresse physique CLI (ce9) 10.42.209.242 su0917-adm1 # adresse physique ADM (ce8) - ajouter deux lignes pour les deux adresses de double-attachement : 10.42.66.191 su0917-cli2 # adresse physique double-attachement CLI (ce11) 10.42.209.243 su0917-adm2 # adresse physique double-attachement ADM (ce10) - ajouter/modifier deux lignes pour les deux adresses virtuelles : 10.42.66.189 su0917cli # adresse virtuelle CLI (ce9:1) 10.42.209.245 su0917adm su0917 loghost # adresse virtuelle ADM (ce8:1) - pour que les modifications soient conservées après le redémarrage du serveur, il faut mettre à jour les quatre fichiers suivants : - éditer le fichier "/etc/hostname.ce9" : su0917-cli1 netmask + broadcast + group cli deprecated -failover up addif su0917cli netmask + broadcast + failover up - éditer le fichier "/etc/hostname.ce11" : su0917-cli2 netmask + broadcast + group cli deprecated -failover standby up - éditer le fichier "/etc/hostname.ce8" : su0917-adm1 netmask + broadcast + group adm deprecated -failover up addif su0917adm netmask + broadcast + failover up - éditer le fichier "/etc/hostname.ce10" : su0917-adm2 netmask + broadcast + group adm deprecated -failover standby up - tapez les commandes suivantes pour activer dynamiquement l'"IP MultiPathing" : -> # ifconfig ce9 su0917-cli1 netmask + broadcast + group cli deprecated -failover up \ addif su0917cli netmask + broadcast + failover up -> # ifconfig ce11 su0917-cli2 netmask + broadcast + group cli deprecated -failover standby up -> # ifconfig ce8 su0917-adm1 netmask + broadcast + group adm deprecated -failover up \ addif su0917adm netmask + broadcast + failover up -> # ifconfig ce10 su0917-adm2 netmask + broadcast + group adm deprecated -failover standby up Exemple : machine "su0917". [su0917@root:/] ifconfig -a lo0: flags=2001000849 mtu 8232 index 1 inet 127.0.0.1 netmask ff000000 ce8: flags=9040843 mtu 1500 index 5 inet 10.42.209.242 netmask fffff000 broadcast 10.42.223.255 groupname adm ether 0:14:4f:67:7b:80 ce8:1: flags=1000843 mtu 1500 index 5 inet 10.42.209.245 netmask fffff000 broadcast 10.42.223.255 ce9: flags=9040843 mtu 1500 index 6 inet 10.42.66.200 netmask fffffe00 broadcast 10.42.67.255 groupname cli ether 0:14:4f:67:7b:81 ce9:1: flags=1000843 mtu 1500 index 6 inet 10.42.66.189 netmask fffffe00 broadcast 10.42.67.255 ce10: flags=79040843 mtu 1500 index 2 inet 10.42.209.243 netmask fffff000 broadcast 10.42.223.255 groupname adm ether 0:14:4f:67:7a:4d ce11: flags=69040843 mtu 1500 index 3 inet 10.42.66.191 netmask fffffe00 broadcast 10.42.67.255 groupname cli ether 0:14:4f:67:7a:4e ce12: flags=1000843 mtu 1500 index 4 inet 10.42.145.140 netmask fffff000 broadcast 10.42.159.255 ether 0:14:4f:44:46:24 - test de bascule des deux interfaces "CLI" et "ADM" : -> # if_mpadm -d ce9 -> # ifconfig -a -> # if_mpadm -r ce9 -> # if_mpadm -d ce8 -> # ifconfig -a -> # if_mpadm -r ce8 - redémarrer le serveur pour que les fichiers de configuration soient lus : -> # init 6 - vérifier que tout est bien opérationnel : - affichage des interfaces configurées du système : -> # ifconfig -a - faire un nouveau test de bascule des deux interfaces "CLI" et "ADM" : -> # if_mpadm -d ce9 -> # ifconfig -a -> # if_mpadm -r ce9 -> # if_mpadm -d ce8 -> # ifconfig -a -> # if_mpadm -r ce8 Rappels : - vérification /var/adm/messages - # svcs -x - mise à jour de Phenope. - # eeprom : local-mac-address?=true et auto-boot?=true - GO sauvegarde. - effectuer un P.V. de recette à déposer sous "\\Mataveacli\bt_systemes\BT_SRV\Sun\6 - DS_010\PV de recette" après la sauvegarde. ### ## Cas particuliers # - Serveur Sun Fire V245 : - après l'encapsulation "Volume Manager", il est impossible de démarrer le serveur correctement : - suivre les étapes suivantes pour palier le problème : - démarrer le système en mode "single user" via le réseau : ok boot net -s - "monter" le disque primaire sur le point de montage "/a". -> # mount /dev/dsk/ /a - se positionner dans le répertoire "/a/etc" : -> # cd /a/etc - définir et "exporter" la variable "TERM" : -> # TERM=vt100 -> # export TERM - éditer le fichier "system" : - ajouter les deux lignes suivantes à la fin du fichier : rootdev:/pseudo/vxio@0:0 set vxio:vol_rootdev_is_volume=1 - se positionner dans le répertoire "vx/reconfig.d/state.d" : -> # cd vx/reconfig.d/state.d - supprimer le fichier "reconfig" : -> # rm reconfig - créer un fichier "root-done" : -> # touch root-done - arrêter le système (retour au "prompt ok") : -> # init 0 - redémarrer normalement le serveur : ok boot - se connecter au serveur et contrôler VxVM : -> # vxdisk list - dans le dialogue du "script shell" "addclient", sélectionner le choix 7 à la question "Choisissez la version de Solaris a installer". Autres : 1) Si pré requis comme MQM, vérifier les éléments suivants : - /etc/project - FS à créer # zfs create STE0993/product/mqm # zfs set mountpoint=/product/mqm STE0993/product/mqm # zfs set quota=2g STE0993/product/mqm # zfs set reservation=2g STE0993/product/mqm # zfs create STE0993/varsoft/mqm # zfs set mountpoint=/varsoft/mqm STE0993/varsoft/mqm # zfs set quota=1g STE0993/varsoft/mqm # zfs set reservation=1g STE0993/varsoft/mqm # zfs create STE0993/catalog/mqm # zfs set mountpoint=/catalog/mqm STE0993/catalog/mqm # zfs set quota=2g STE0993/catalog/mqm # zfs set reservation=2g STE0993/catalog/mqm # zfs list | grep mqm STE0993/catalog/mqm 24.5K 2.00G 24.5K /catalog/mqm STE0993/product/mqm 24.5K 2.00G 24.5K /product/mqm STE0993/varsoft/mqm 24.5K 1024M 24.5K /varsoft/mqm - Compte et groupe (mpm) 2) Remettre PermitRootLogin à « no » /usr/local/etc/sshd_login 3) Sur Rennes et à partir de « morio », l'installation ne passe pas en DHCP ! Utilisez donc BOOTP. 4) Modification des paramètres systéme pour les applications : Il faut utiliser la notion de projet au sens Sun et ne pas modifier les valeurs dans le fichier "/etc/system". Le fichier "/etc/project" sera automatiquement modifié par la commande "projmod" ci-dessous. Voici les commandes lancées par l'installation de l'OS : Exemple pour l'application Oracle : # projadd -p 202 group.dba # usermod -K project=group.dba oracle # projmod -K "project.max-shm-memory=(privileged,4GB,deny)" group.dba Le document "Check list RAC.xls" précise les valeurs à changer : Voici la commande à taper : # projmod -K "project.noexec_user_stack=(priv,1,deny)" -K "project.seminfo_semmni=(priv,100,deny)" -K "project.seminfo_semmns=(priv,1024,deny)" -K "project.seminfo_semmsl=(priv,256,deny)" -K "project.seminfo_semvmx=(priv,32767,deny)" -K "project.shminfo_shmmin=(priv,1,deny)" -K "project.shminfo_shmmni=(priv,100,deny)" -K "project.shminfo_shmseg=(priv,10,deny)" -K "project.max-shm-memory=(privileged,4294967296,deny)" group.dba Voici le résultat : # projects -l group.dba group.dba projid : 202 comment: "" users : (none) groups : (none) attribs: project.max-shm-memory=(privileged,4294967296,deny) project.noexec_user_stack=(priv,1,deny) project.seminfo_semmni=(priv,100,deny) project.seminfo_semmns=(priv,1024,deny) project.seminfo_semmsl=(priv,256,deny) project.seminfo_semvmx=(priv,32767,deny) project.shminfo_shmmin=(priv,1,deny) project.shminfo_shmmni=(priv,100,deny) project.shminfo_shmseg=(priv,10,deny) Le fichier "/etc/project" a bien été mis à jour par la commande "projmod" : [root@su0425:/] cat /etc/project system:0:::: user.root:1:::: noproject:2:::: default:3::::project.max-sem-ids=(priv,256,deny) group.staff:10:::: group.fichier:302::::process.max-msg-qbytes=(priv,2097152,deny);project.max-msg_ids=(priv,1024,deny) group.dba:202::::project.max-shm-memory=(privileged,4294967296,deny);project.noexec_user_stack=(priv,1,deny);project.seminfo_semmni=(priv,100,deny);project.seminfo_semmns=(priv,1024,deny);project.seminfo_semmsl=(priv,256,deny);project.seminfo_semvmx=(priv,32767,deny);project.shminfo_shmmin=(priv,1,deny);project.shminfo_shmmni=(priv,100,deny);project.shminfo_shmseg=(priv,10,deny) group.mqm:214:WebSphere MQ Setting:::process.max-file-descriptor=(basic,32000,deny);project.max-sem-ids=(priv,2048,deny);project.max-shm-ids=(priv,2048,deny);project.max-shm-memory=(priv,4294967296,deny) 5) si montage "NAS" nécessaire, activer le client "NFS" : # svcadm enable /network/nfs/client