Розбіжності

Тут показані розбіжності між вибраною ревізією та поточною версією сторінки.

Посилання на цей список змін

tech:arc1 [2012/06/18 21:58]
Пелих Володимир [Скрипт]
tech:arc1 [2012/12/10 19:10] (поточний)
Рядок 1: Рядок 1:
-====== Інсталяція ​ARC1 ======+====== Інсталяція ​ARC2 ======
  
 ====== Інсталяція пакетів ARC, конфігурація системи для європейского та локального моніторигу:​ ====== ====== Інсталяція пакетів ARC, конфігурація системи для європейского та локального моніторигу:​ ======
 ===== Підготовка до інсталяції ARC ===== ===== Підготовка до інсталяції ARC =====
 ==== Інсталяція ОС ==== ==== Інсталяція ОС ====
-Ця інструкція застосовна до будь-якого дистрибутиву Linux, що базується на RHEL5 для платформи x86_64 -- наприклад,​ Scientific Linux або CentOS. +Ця інструкція застосовна до будь-якого дистрибутиву Linux, що базується на RHEL5 або RHEL6 для платформи x86_64 -- наприклад,​ Scientific Linux або CentOS. 
-Рекомендується використовувати Scientific Linux 5.8.+Рекомендується використовувати Scientific Linux 5.8 [уточнення:​ остання версія на момент редагування SL6.3].
 Для Scientific Linux підтримується [[tech:​sl_mirror|дзеркало]] для пришвидчення мережевих інсталяцій. Для Scientific Linux підтримується [[tech:​sl_mirror|дзеркало]] для пришвидчення мережевих інсталяцій.
   - Запишіть [[http://​mirror.imbg.org.ua/​pub/​linux/​scientific/​58/​x86_64/​images/​boot.iso|ISO-образ]] на CD або DVD.   - Запишіть [[http://​mirror.imbg.org.ua/​pub/​linux/​scientific/​58/​x86_64/​images/​boot.iso|ISO-образ]] на CD або DVD.
Рядок 40: Рядок 40:
 server ntp.time.in.ua server ntp.time.in.ua
 server ntp2.time.in.ua server ntp2.time.in.ua
-server ​ntp2.time.in.ua+server ​ntp3.time.in.ua
 server ntp.colocall.net server ntp.colocall.net
 server ntp2.colocall.net server ntp2.colocall.net
Рядок 50: Рядок 50:
 Більшість програмного забезпечення грід-інфраструктури використовує бібліотеки та інші засоби,​ що доступні на Desktop-дистрибутивах,​ проте не пройшли достатнього тестування щоб бути у складі Enterprise-дистрибутивів. Більшість програмного забезпечення грід-інфраструктури використовує бібліотеки та інші засоби,​ що доступні на Desktop-дистрибутивах,​ проте не пройшли достатнього тестування щоб бути у складі Enterprise-дистрибутивів.
 Процес сертифікації таких програмних засобів досить довготривалий,​ і для тих, кому необхідно скористатись ними зараз на RHEL-подібному дистрибутиві,​ існує спеціальний репозиторій [[http://​fedoraproject.org/​wiki/​EPEL|Extra Packages for Enterprise Linux (EPEL)]]. Його необхідно підключити для продовження інсталяції. Простіше за все це зробити такою командою:​ Процес сертифікації таких програмних засобів досить довготривалий,​ і для тих, кому необхідно скористатись ними зараз на RHEL-подібному дистрибутиві,​ існує спеціальний репозиторій [[http://​fedoraproject.org/​wiki/​EPEL|Extra Packages for Enterprise Linux (EPEL)]]. Його необхідно підключити для продовження інсталяції. Простіше за все це зробити такою командою:​
 +
 +Для SL5
 <​code>​ <​code>​
 rpm -Uvh  http://​download.fedoraproject.org/​pub/​epel/​5/​i386/​epel-release-5-4.noarch.rpm (згідно вказівок http://​repository.egi.eu/​category/​umd_releases/​distribution/​umd_1/​) rpm -Uvh  http://​download.fedoraproject.org/​pub/​epel/​5/​i386/​epel-release-5-4.noarch.rpm (згідно вказівок http://​repository.egi.eu/​category/​umd_releases/​distribution/​umd_1/​)
 </​code>​ </​code>​
-Зверніть увагу, що ставити потрібно репозиторій для архітектури i386.+Для SL6 
 +<​code>​rpm -Uvh  http://www.nic.funet.fi/​pub/​mirrors/​fedora.redhat.com/​pub/​epel/​6/​x86_64/​epel-release-6-7.noarch.rpm 
 +</​code>​ 
  
 === Universal Middleware Distribution (UMD) === === Universal Middleware Distribution (UMD) ===
-Програмне забезпечення проміжного рівня у інфраструктурі EGI консолідовано у загальний репозиторій [[http://​repository.egi.eu/​category/​umd_releases/​distribution/umd_1/|Universal Middleware Distribution (UMD-1)]].+Програмне забезпечення проміжного рівня у інфраструктурі EGI консолідовано у загальний репозиторій [[http://​repository.egi.eu/​category/​umd_releases/​distribution/​|Universal Middleware Distribution (UMD-2)]].
 Він містить сертифіковані версії усіх компонентів програмного забезпечення. Він містить сертифіковані версії усіх компонентів програмного забезпечення.
  
Рядок 66: Рядок 71:
  
 До UMD входить програмне забезпечення проекту [[http://​www.eu-emi.eu|European Middleware Initiative (EMI)]] та [[http://​www.ige-project.eu/​|Initiative for Globus in Europe (IGE)]], а також довірені кореневі сертифікати центрів сертифікації-членів [[http://​www.igtf.net/​|International Grid Trust Federation (IGTF)]]. До UMD входить програмне забезпечення проекту [[http://​www.eu-emi.eu|European Middleware Initiative (EMI)]] та [[http://​www.ige-project.eu/​|Initiative for Globus in Europe (IGE)]], а також довірені кореневі сертифікати центрів сертифікації-членів [[http://​www.igtf.net/​|International Grid Trust Federation (IGTF)]].
 +
 +SL5
 <​code>​ <​code>​
-rpm -Uvh http://​repository.egi.eu/​sw/​production/​umd/​1/​sl5/​x86_64/​updates/​umd-release-1.0.2-1.el5.noarch.rpm+rpm -Uvh http://​repository.egi.eu/​sw/​production/​umd/​2/​sl5/​x86_64/​base/​umd-release-2.0.0-1.el5.noarch.rpm 
 +</​code>​ 
 + 
 +SL6 
 +<​code>​ rpm -Uvh http://​repository.egi.eu/​sw/​production/​umd/​2/​sl6/​x86_64/​base/​umd-release-2.0.0-1.el6.noarch.rpm 
 +</​code>​ 
 + 
 +=== EMI Matterhorn === 
 +Замість UMD репозиторію можливо використовувати [[http://​www.eu-emi.eu/​emi-2-matterhorn|EMI 2]] репозиторії та окремо репозиторій для сертифікатів [[http://​repository.egi.eu/​sw/​production/​cas/​1/​current/​repo-files/​EGI-trustanchors.repo|файл для підключення репозиторію]]:​ 
 + 
 +SL5 
 +<​code>​ 
 +rpm -Uvh http://​emisoft.web.cern.ch/​emisoft/​dist/​EMI/​2/​sl5/​x86_64/​base/​emi-release-2.0.0-1.sl5.noarch.rpm 
 +</​code>​ 
 + 
 +SL6 
 +<​code>​ rpm -Uvh http://​emisoft.web.cern.ch/​emisoft/​dist/​EMI/​2/​sl6/​x86_64/​base/​emi-release-2.0.0-1.sl6.noarch.rpm
 </​code>​ </​code>​
 ==== Сертифікати ==== ==== Сертифікати ====
Рядок 125: Рядок 148:
 </​code>​ </​code>​
 ====== Приклад конфігураціоного файлу arc.conf (кластер ІТФ) ====== ====== Приклад конфігураціоного файлу arc.conf (кластер ІТФ) ======
 +Блок [common] відповідає за загальні налаштування грід-сайту
 <​code>​[common] ​ <​code>​[common] ​
 hostname="​nordug.bitp.kiev.ua" ​ hostname="​nordug.bitp.kiev.ua" ​
Рядок 135: Рядок 159:
 x509_user_cert="/​etc/​grid-security/​hostcert.pem" ​ x509_user_cert="/​etc/​grid-security/​hostcert.pem" ​
 x509_cert_dir="/​etc/​grid-security/​certificates" ​ x509_cert_dir="/​etc/​grid-security/​certificates" ​
-voms_processing="​standard"​  +voms_processing="​standard" ​</​code>​ 
-[vo] + 
 +<​code>​[vo] 
 vo="​ops" ​ vo="​ops" ​
 file="/​etc/​grid-security/​VOs/​grid-mapfile_ops" ​ file="/​etc/​grid-security/​VOs/​grid-mapfile_ops" ​
Рядок 356: Рядок 381:
 <​code>​mount -t nfs <​ip_you_server>:/​SOTWARE /SOFTWARE <​code>​mount -t nfs <​ip_you_server>:/​SOTWARE /SOFTWARE
 mount -t nfs <​ip_you_server>:/​scratch /​scratch</​code>​ mount -t nfs <​ip_you_server>:/​scratch /​scratch</​code>​
-====== Тестировання АРК ======+====== Тестування АРК ======
 Для початку тестування встановіть клієнтський пакет Nordugrid ARC на сервер або іншу клієнтську машину Для початку тестування встановіть клієнтський пакет Nordugrid ARC на сервер або іншу клієнтську машину
 <​code>​yum install nordugrid-arc-client-tools</​code>​ <​code>​yum install nordugrid-arc-client-tools</​code>​
Рядок 381: Рядок 406:
  
 <​code>​yum install bdii-config-site.noarch glite-yaim-bdii.noarch ​  ​emi-bdii-site.x86_64 myproxy -y</​code>​ <​code>​yum install bdii-config-site.noarch glite-yaim-bdii.noarch ​  ​emi-bdii-site.x86_64 myproxy -y</​code>​
- +<​code>/​root/​siteinfo</​code>​  
 +  * Оскільки ми використовуемо лише bdii-site ,то буде достатньо мінімальной конфігарації site-info.def 
 +<​box|site-info.def>​ 
 +<​code>​ 
 + 
 +################################​ 
 +# Site configuration variables # 
 +################################​ 
 + 
 +# Human-readable name of your site 
 +SITE_NAME=<​SITENAME>​ 
 + 
 +# The contact e-mail of your site. 
 +# A coma separated list of email addresses.  
 +SITE_EMAIL=<​Site_email>​ 
 + 
 +# It is the position of your site north or south of the equator  
 +# measured from -90. to 90. with positive values going north and  
 +# negative values going south.  
 +SITE_LAT=50.25  
 + 
 +# It is the position of the site east or west of Greenwich, England  
 +# measured from -180. to 180. with positive values going east and  
 +# negative values going west.   
 +SITE_LONG=30.30 
 + 
 +##############################​ 
 +# CE configuration variables # 
 +##############################​ 
 + 
 +# Hostname of the CE 
 +CE_HOST=<​CE_HOST>​ 
 +CEMON_HOST=<​CE_MON_HOST>​ 
 + 
 +############################​ 
 +# SubCluster configuration # 
 +############################​ 
 + 
 +# Name of the processor model as defined by the vendor  
 +# for the Worker Nodes in a SubCluster. 
 +CE_CPU_MODEL=Xeon 
 + 
 +# Name of the processor vendor  
 +# for the Worker Nodes in a SubCluster 
 +CE_CPU_VENDOR=intel 
 + 
 +# Processor clock speed expressed in MHz  
 +# for the Worker Nodes in a SubCluster. 
 +CE_CPU_SPEED=3200 
 + 
 +# For the following variables please check: 
 +# http://​goc.grid.sinica.edu.tw/​gocwiki/​How_to_publish_the_OS_name 
 +
 +# Operating system name used on the Worker Nodes  
 +# part of the SubCluster. 
 +CE_OS="​Scientific Linux"​ 
 + 
 +# Operating system release used on the Worker Nodes 
 +# part of the SubCluster. 
 +CE_OS_RELEASE="​5.4"​ 
 + 
 +# Operating system version used on the Worker Nodes 
 +# part of the SubCluster. 
 +CE_OS_VERSION="​SL"​ 
 + 
 +# Platform Type of the WN in the SubCluster 
 +# Check: http://​goc.grid.sinica.edu.tw/​gocwiki/​How_to_publish_my_machine_architecture  
 +CE_OS_ARCH=x86_64 
 + 
 +# Total physical memory of a WN in the SubCluster 
 +# expressed in Megabytes. 
 +CE_MINPHYSMEM=4096 
 + 
 +# Total virtual memory of a WN in the SubCluster 
 +# expressed in Megabytes. 
 +CE_MINVIRTMEM=8192 
 + 
 +# Total number of real CPUs/​physical chips in  
 +# the SubCluster, including the nodes part of the  
 +# SubCluster that are temporary down or offline.  
 +CE_PHYSCPU=4 
 + 
 +# Total number of cores/​hyperthreaded CPUs in  
 +# the SubCluster, including the nodes part of the  
 +# SubCluster that are temporary down or offline 
 +CE_LOGCPU=8 
 + 
 +# Number of Logical CPUs (cores) of the WN in the  
 +# SubCluster 
 +CE_SMPSIZE=4 
 + 
 +# Performance index of your fabric in SpecInt 2000 
 +CE_SI00=1578 
 + 
 +# Performance index of your fabric in SpecFloat 2000 
 +CE_SF00=1848 
 + 
 +# Set this variable to either TRUE or FALSE to express  
 +# the permission for direct outbound connectivity  
 +# for the WNs in the SubCluster 
 +CE_OUTBOUNDIP=TRUE 
 + 
 +# Set this variable to either TRUE or FALSE to express  
 +# the permission for inbound connectivity  
 +# for the WNs in the SubCluster 
 +CE_INBOUNDIP=TRUE 
 + 
 +# Space separated list of software tags supported by the site 
 +# e.g. CE_RUNTIMEENV="​LCG-2 LCG-2_1_0 LCG-2_1_1 LCG-2_2_0 GLITE-3_0_0 GLITE-3_1_0 R-GMA"​ 
 +CE_RUNTIMEENV="​LCG-2 LCG-2_1_0 LCG-2_1_1 LCG-2_2_0 GLITE-3_0_0 GLITE-3_1_0 R-GMA"​ 
 + 
 +# For the following variables, please check more detailed information in: 
 +# https://​twiki.cern.ch/​twiki/​bin/​view/​LCG/​Site-info_configuration_variables#​site_info_def 
 +
 +# The following values must be defined by the sys admin: 
 +# - CPUScalingReferenceSI00=<​referenceCPU-SI00>​  
 +# - Share=<​vo-name>:<​vo-share>​ (optional, multiple definitons)  
 +CE_CAPABILITY="​CPUScalingFactorSI00=100"​ 
 + 
 +# The following values must be defined by the sys admin: 
 +# - Cores=value 
 +# - value-HEP-SPEC06 (optional), where value is the CPU power computed 
 +#   using the HEP-SPEC06 benchmark 
 +CE_OTHERDESCR="​Cores=100"​  
 + 
 + 
 +########################################​ 
 +# Batch server configuration variables # 
 +########################################​ 
 + 
 +# Hostname of the Batch server 
 +# Change this if your batch server is not installed  
 +# in the same host of the CE 
 +BATCH_SERVER=$CE_HOST 
 + 
 +# Jobmanager specific settings. Please, define: 
 +# lcgpbs, lcglfs, lcgsge or lcgcondor 
 +JOB_MANAGER=lcgpbs 
 + 
 +# torque, lsf, sge or condor 
 +CE_BATCH_SYS=torque 
 +BATCH_LOG_DIR=/​var/​spool/​pbs 
 +BATCH_VERSION=2.3.0 
 + 
 +###############################​ 
 +# DPM configuration variables # 
 +###############################​ 
 + 
 +# Hostname of the DPM head node  
 +DPM_HOST=<​DPM_HOST>​ 
 + 
 +#############################​ 
 +#LFC configuration variables#​ 
 +#############################​ 
 + 
 +LFC_HOST=<​LFC_HOST>​ 
 + 
 +########################​ 
 +# SE general variables # 
 +########################​ 
 + 
 +# Space separated list of SEs hostnames 
 +SE_LIST="​$DPM_HOST"​ 
 + 
 + 
 +################################​ 
 +# BDII configuration variables # 
 +################################​ 
 + 
 +# Hostname of the top level BDII 
 +BDII_HOST=<​BDII_HOST>​ 
 + 
 +# Hostname of the site BDII 
 +SITE_BDII_HOST=<​SITE_BDII_HOST>​ 
 + 
 +</​code>​ 
 +</​box>​ 
 <​code>/​root/​siteinfo/​services</​code>​ <​code>/​root/​siteinfo/​services</​code>​
  
tech/arc1.1340056688.txt.bz2 · В останнє змінено: 2012/06/18 21:58 (зовнішнє редагування)
www.chimeric.de Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0