Сессия Ученого совета офвэ 25-27 декабря 2006 года Деятельность отдела вычислительных систем (овс)




НазваниеСессия Ученого совета офвэ 25-27 декабря 2006 года Деятельность отдела вычислительных систем (овс)
Дата конвертации11.05.2013
Размер445 b.
ТипПрезентации


Сессия Ученого совета ОФВЭ 25-27 декабря 2006 года

  • Деятельность отдела вычислительных систем (ОВС)

  • в 2006 году и в ближайшем будущем

  • А. Н. Лодкин, А. Е. Шевель


Сферы деятельности отдела и его состав

  • Разработка эффективных вычислительных архитектур для использования в физике высоких энергий.

  • Поддержка и развитие реализованных вычислительных систем ОФВЭ и института:

    • Сети ОФВЭ и института на 7, 2, 8 корпусах, КО и ЦЭТО.
    • Коммутатор сетей института на 7 корпусе (100 Мбит/сек).
    • mail.pnpi.spb.ru, мail сервер института и главный DNS сервер pnpi.spb.ru.
    • hepd.pnpi.spb.ru, WWW, FTP сервер ОФВЭ, дополнительный DNS сервер pnpi.spb.ru.
    • proxyter.pnpi.spb.ru, прокси сервер ОФВЭ для работы с Интернет (100 Мбит/сек).
    • pcfarm.pnpi.spb.ru, вычислительный кластер ОФВЭ.
    • Сервер доступа в локальную сеть института по модемным линиям из Гатчины и подразделений в корпусах института, не подключенных по оптоволокну.
    • Сетевые принтеры HP LaserJet 4200dn и HP Color LaserJet 4500 для печати с вычислительного кластера ОФВЭ.
  • В отделе 5 человек:

  • Шевель А.Е, Сереброва Т.С, Орешкин А.А., Леонтьев В.В., Лодкин А.Н.



Сети ОФВЭ и института на 7, 2, 8 корпусах, КО, ЦЭТО

  • Подключение новых компьютеров к сетям.

  • Установка новых коммутаторов на 1000 Мбит/с и коммутаторов на 100 Мбит/с.

  • Модернизация узлов сетей.

  • Планы на будущее.



Сети ОФВЭ и института на 7, 2, 8 корпусах, КО, ЦЭТО

  • Список новых компьютеров, подключенных ОВС к сетям в 2006 году

  • Fbsl02 192.168.14.56 к.2, к.229 Труш С.И.

  • mucap 192.168.14.57 к.2, к.318 Левченко М.П.

  • Mucapvac 192.168.14.58 к.2, к.130 Маев Е.М.

  • Mucapphys 192.168.14.60 к.2, к.302 Балин Д.В.

  • Mucapserv 192.168.14.59 к.2, к.305 Фотиева Е.В.

  • Lrph01 192.168.14.48 ЛРФ, к.2, к.228 Найденов А.Ф.

  • nni02 192.168.14.54 к.7, к.340 Ткач Л.Н.

  • Atlas9 192.168.14.49 к.7, к.121 Наводворская И.Ю.

  • eng08 192.168.14.51 к.7, к.436 Новиков Ю.Н.

  • Milit2 192.168.14.50 2 отдел, к.7, к.135 Пшенный В.И.

  • Milit22 192.168.14.52 2 отдел, к.7, к.135 Алексеева Н.Ф.

  • Smipat02 192.168.14.53 Пат.отд.,к.7, к.247 Меньшикова С.Б.

  • Fordep3 192.168.14.55 Иност.отд., к.7, к.211 Никитина Н.В.

  • ptd1 192.168.14.61 ПТО, к.7, к.246 Иванова М.М.

  • Общее число компьютеров в сетях увеличилось с 350 до 364.



Сети ОФВЭ и института на 7, 2, 8 корпусах, КО, ЦЭТО

  • Установка новых коммутаторов на 1000 Мбит/с

  • и коммутаторов на 100 Мбит/с

  • Два коммутатора 3Com Switch 3812 с 12 портами 10/100/1000 Мбит/с

  • Четыре коммутатора 3Com Switch 4200 с 24 портами 10/100 Мбит/с и 2 портами 10/100/1000 Мбит/с



Сети ОФВЭ и института на 7, 2, 8 корпусах, КО, ЦЭТО

  • Первый коммутатор 3Com Switch 3812 позволил подключить в аппаратной 7 корпуса:

  • На 1000 Мбит/с mail.pnpi.spb.ru,

  • На 1000 Мбит/с hepd.pnpi.spb.ru,

  • На 100 Мбит/с proxyter.pnpi.spb.ru

  • На 1000 Мбит/с pcfarm.pnpi.spb.ru,

  • На 1000 Мбит/с узел сети в аппаратной 7 корпуса (48 портов 100 Мбит/с и на 100 Мбит/с по оптоволокну узел сети 2А корпуса (24 порта 100 Мбит/с)),

  • На 1000 Мбит/с узел сети в комнате 236 (72 порта 100 Мбит/с, на 1000 Мбит/с узел сети 4 этажа (24 порта 100 Мбит/с и 12 портов 10 Мбит/с) и на 100 Мбит/с узел сети в дирекции на 2 этаже (12 портов 100 Мбит/с) )

  • На 1000 Мбит/с аппаратную 2 корпуса по оптоволокну (оборудование заказано и нужно его запустить по текущему оптоволокну),

  • на 100 Мбит/с коммутатор сетей ОФВЭ (2 корпус), ОНИ (1,7 и 85 корпуса), ОМРБ (50 корпус), ОТФ (85 корпус), КО, ЦЭТО, 8 корпус, ИК и АТС (доступ в Интернет).



Сети ОФВЭ и института на 7, 2, 8 корпусах, КО, ЦЭТО

  • Второй коммутатор 3Com Switch 3812 позволил подключить в аппаратной 2 корпуса:

  • На 1000 Мбит/с аппаратную 7 корпуса по оптоволокну (оборудование заказано и нужно его запустить по текущему оптоволокну),

  • На 100 Мбит/с узел сети в аппаратной 2 корпуса (12 портов 100 Мбит/с, 12 портов 10 Мбит/с и на 10 Мбит/с по оптоволокну узел сети корпуса 65А (4 порта 10 Мбит/с)),

  • На 1000 Мбит/с узел сети пристройки ОРЭ корпуса 2 (48 портов 100 Мбит/с),

  • На 1000 Мбит/с узел сети 3 этажа 2 корпуса (24 порта 100 Мбит/с и 24 порта 10 Мбит/с),

  • На 100 Мбит/с узел сети измер. зала пристройки ИРИС (12 портов 10 Мбит и на 100 Мбит/с узел сети пристройки ИРИС (24 порта 100 Мбит/с и 12 портов 10 Мбит/с))

  • На 10 Мбит/с узел сети пристройки медиков (12 портов 10 Мбит/с)



Сети ОФВЭ и института на 7, 2, 8 корпусах, КО, ЦЭТО

  • Два коммутатора было куплены на средства института и два на средства ОФВЭ.

  • Первый коммутатор заменил в дирекции на 2 этаже 7 корпуса концентратор на 12 портов 10 Мбит/с.

  • Второй коммутатор заменил в узле сети в комнате 236 последний концентратор на 24 порта 10 Мбит/с и общее число портов 100 Мбит/с в этом узле составило 72.

  • Дополнительные 2 порта 1000 Мбит/с использовали для перевода связи с узлом сети на 4 этаже с 100 Мбит/с на 1000 Мбит/с и для связи коммутаторов в узле в комнате 236 на 1000 Мбит/с.

  • На этом узле подключено 13 компьютеров института (4 в иностранном отделе, 2 в патентном отделе, 4 в дирекции на 1 этаже, 2 во 2 отделе, 1 в ПТО).



Сети ОФВЭ и института на 7, 2, 8 корпусах, КО, ЦЭТО

  • Третий коммутатор заменил в узле 2А корпуса единственный коммутатор на 12 портов 10 Мбит/с и был подключен по оптоволокну на 100 Мбит/с к узлу в аппаратной 7 корпуса.

  • Четвертый коммутатор заменил в узле сети в пристройке ОРЭ корпуса 2 один концентратор на 12 портов 100 Мбит/с и один концентратор на 24 порта 10 Мбит/с и теперь все 48 портов имеют 100 Мбит/с.

  • Порты 1000 Мбит/с используются для связи двух коммутаторов между собой и для связи с узлом сети в аппаратной 2 корпуса.



Сети ОФВЭ и института на 7, 2, 8 корпусах, КО, ЦЭТО

  • Модернизация узлов сети

  • ОВС модернизированы уже три узла сети путем применения польских стоек для крейтов Камак.

  • Начали использование этих стоек при создании узла сети в измерительном зале пристройки ИРИС и размещали в стойке коммутаторы и коммутационные панели на 24 порта.

  • Затем применили подобную стойку в узле сети пристройки ОРЭ корпуса 2 и установили в стойке уже два коммутатора с 24 портами 10/100 Мбит/с и разместили пока только одну коммутационную панель на 24 порта. Установленные ранее настенные коммутационные панели на 12 портов по-прежнему используются.

  • В 2006 году установили третью стойку и модернизировали узел сети в комнате 236 корпуса 7. Сейчас в ней установлено три коммутатора 10/100 Мбит/с и разместили одну коммутационную панель на 24 порта.



Сети ОФВЭ и института на 7, 2, 8 корпусах, КО, ЦЭТО

  • Планы на будущее

  • Требуется продолжить замену концентраторов 10 Мбит/с на коммутаторы 100 Мбит/с в следующих узлах сети:

    • Пристройка ИРИС
    • Измерительный зал ИРИС
    • 3 этаж 2 корпуса
    • Аппаратная 2 корпуса
  • Требуется начать освоение радиодоступа для компьютеров и купить несколько подобных блоков для 7 корпуса, а также один лаптоп для ОВС.



Коммутатор сетей института на 100 Мбит/с на 7 корпусе



mail.pnpi.spb.ru, мail сервер института и главный DNS сервер pnpi.spb.ru



mail.pnpi.spb.ru, мail сервер института и главный DNS сервер pnpi.spb.ru



mail.pnpi.spb.ru, мail сервер института и главный DNS сервер pnpi.spb.ru



pcfarm.pnpi.spb.ru, вычислительный кластер ОФВЭ

  • Кластер состоит из одного главного компьютера и одиннадцати периферийных компьютеров. Все компьютеры в кластере Intel P-4. Связь периферийных компьютеров с центральным осуществляется на скорости 1000 Мбит/с с использованием коммутаторов 3Com 12 port Switch 3812, 3Com Baseline 8 port Switch.

  • Центральный компьютер подключается к сети ОФВЭ на скорости 1000 Мбит/с.

  • Суммарная частота процессоров всех 12 компьютеров кластера составляет

  • 3.000*2+3.400*3+2.660*4+2.800+2.400*4 = 39.240 ГГц



pcfarm.pnpi.spb.ru, вычислительный кластер ОФВЭ

  • С августа 2003 года в качестве центрального компьютера используется системный блок Fujitsu-Siemens Celsius R610 Workstation с двумя процессорами Intel Xeon 2,40 GHz (533 MHz/HT), оперативной памятью 2 Гбайта. Центральный компьютер имеет встроенный двухканальный контроллер SCSI 320 Mbyte/s. Дополнительно еще имеются один контроллер SCSI 160 Mbyte/s и один контроллер SCSI 80 Mbyte/s. Дисковая память на центральном компьютере имеет общий объем 1 Тбайт. Также еще имеется магнитофон DLT8000, который запущен в 2000 году и постоянно используется для системы копирования серверов pcfarm.pnpi.spb.ru, mail.pnpi.spb.ru, hepd.pnpi.spb.ru.

  • В начале 2005 года запущена в работу первая дисковая RAID система на 3 Тбайта, 15 дисков SATA IDE 200 Гбайт, на базе 19” 3U Promise Vtrak 15100. Эта RAID система подключается к центральному компьютеру по SCSI 160 Mbyte/s.



pcfarm.pnpi.spb.ru, вычислительный кластер ОФВЭ

  • В настоящее время на кластере зарегистрировано 149 пользователей.

  • Все компьютеры кластера работают под управлением операционной системы Scientific Linux 3.05. Среди установленных системных компонентов можно отметить AFS, Globus (базовая система в Grid), SUN Gridware Engine (SGE).

  • Имеются следующие компоненты прикладного обеспечения:

  • CERNLIB-2005, gcc 3.2.3, система ROOT-4.02, другие пакеты.

  • Работа с Интернет осуществляется на скорости 100 Мбит/с.



pcfarm.pnpi.spb.ru, вычислительный кластер ОФВЭ



pcfarm.pnpi.spb.ru, вычислительный кластер ОФВЭ

  • Использование кластера пакетными заданиями (SGE)

  • с 1 января 2006 года по 25 декабря 2006 года (в часах CPU)

  • Fomin А.Фомин 18018

  • Vea Е.Взнуздаев 9084.56

  • Riabovyg Ю.Рябов 5673.54

  • Obrant Г.Обрант 1068.75

  • Kozlenko Н.Козленко 475.56

  • Radkov А.Радков 346.365

  • Sherman С.Шерман 188.564

  • Dair Д.Боядилов 109.692

  • Tverskoy М.Тверской 31.9581

  • Agreb А.Гребенюк 20.9914

  • Arnis А.Кулбардис 11.7344

  • Oreshkin А.Орешкин 7.29556

  • Vao В.Орешкин 5.36417

  • Gridnev А.Гриднев 2.98889

  • ---------------------------------------------------------------------------

  • Общее количество часов 35045.4

  • Общее количество заданий 67511



pcfarm.pnpi.spb.ru, вычислительный кластер ОФВЭ

  • Кто логировался на кластер и сколько часов был логирован

  • с 1 сентября 2006 года по 1 декабря 2006 года

  • Riabovvg В.Рябов 11341.21

  • Riabovyg Ю.Рябов 4642.69

  • Tatianas Т.Сереброва 4343.73

  • Dobrov А.Добровольский 3704.76

  • Oreshkin А.Орешкин 2749.82

  • Baublis В.Баублис 2346.26

  • Obrant Г.Обрант 1975.98

  • Arnis А.Кулбардис 1628.34

  • Miklukho О.Миклухо 428.27

  • Vea Е.Взнуздаев 415.86

  • Ivanishchev Д.Иванишчев 352.16

  • Zalite Ю.Залите 195.45

  • Sherman С.Шерман 188.80

  • Orischin Е.Орищин 188.55

  • Voropaev Н.Воропаев 136.22

  • Komkov Б.Комков 115.54

  • Velichko Г.Величко 98.38

  • Saran В.Саранцев 87.82

  • Lepekhin Ф.Лепехин 87.49

  • Sman С.Манаенков 85.64

  • Bekrenev В.Бекренев 77.29

  • Koptev В.Коптев 72.97



pcfarm.pnpi.spb.ru, вычислительный кластер ОФВЭ

  • Предложение по развитию кластера в 2007 году

  • Шесть однопроцессорных системных блока с 2 Гбайт оперативной памяти по 1000 долларов.

  • Кондиционер и одна стойка 19” для размещения оборудования 2000 долларов.

  • Дисковую RAID систему на 6 Тбайт за 5000 долларов.

  • Итого: 6000+2000+5000=13000 долларов



Публикации сотрудников ОВС в 2006 году

  • Andrey Shevel Presentation on Alice DAQ Meeting (please see http://indico.cern.ch/conferenceDisplay.py?confId=6722, 10 October 2006) "Benchmarking the LDCs for Point 2 (Supermicro X6 and X7)"

  • Andrey Shevel, Roy Lacey Poster presentation on Computing in High Energy and Nuclear Physics 13-17 February 2006, T.I.F.R. Mumbai, India Midrange computing cluster architectures for data analysis in High Energy Physics

  • А.Н.Лодкин, А.А.Орешкин, Т.С.Сереброва, А.Е.Шевель

  • Основные результаты научных исследований ПИЯФ, 2000-2004 годы

  • «Сервер электронной почты института», стр.247

  • А.Н.Лодкин, А.А.Орешкин, Т.С.Сереброва, А.Е.Шевель

  • Основные результаты научных исследований ПИЯФ, 2000-2004 годы

  • «Коммуникационный центр локальной сети института», стр.246



Похожие:

Сессия Ученого совета офвэ 25-27 декабря 2006 года Деятельность отдела вычислительных систем (овс) iconСессия Ученого совета офвэ 24 декабря 2008 года Деятельность отдела вычислительных систем (овс)
Деятельность отдела вычислительных систем (овс) в 2008 году и в ближайшем будущем
Сессия Ученого совета офвэ 25-27 декабря 2006 года Деятельность отдела вычислительных систем (овс) iconСессия Ученого совета офвэ 26 декабря 2007 года Деятельность отдела вычислительных систем (овс)
Деятельность отдела вычислительных систем (овс) в 2007 году и в ближайшем будущем
Сессия Ученого совета офвэ 25-27 декабря 2006 года Деятельность отдела вычислительных систем (овс) iconСессия Ученого совета офвэ 23-24, 26 декабря 2003 года
Результаты работы отдела вычислительных систем (овс) за 2003 год и планы на 2004 год
Сессия Ученого совета офвэ 25-27 декабря 2006 года Деятельность отдела вычислительных систем (овс) iconОфвэ в 2006 году лаборатории офвэ

Сессия Ученого совета офвэ 25-27 декабря 2006 года Деятельность отдела вычислительных систем (овс) iconА. А. Коршунов, Е. В. Амельченко, И. Л. Шаймарданова (фгбу «вниигми-мцд»), Обнинск, Итоговая сессия Ученого совета, 29 января 2013 г
Основные результаты, полученные в области экономической метеорологии (основные результаты по нир 10)
Сессия Ученого совета офвэ 25-27 декабря 2006 года Деятельность отдела вычислительных систем (овс) iconЗаседание Ученого совета Федерального государственного научного учреждения «Федеральный институт педагогических измерений» Основная деятельность фипи в 2005 году
Заседание Ученого совета Федерального государственного научного учреждения «Федеральный институт педагогических измерений»
Сессия Ученого совета офвэ 25-27 декабря 2006 года Деятельность отдела вычислительных систем (овс) iconКлассификация многопроцессорных вычислительных систем Классификация многопроцессорных вычислительных систем
Дальнейшее разделение типов многопроцессорных систем основывается на используемых способах организации оперативной памяти
Сессия Ученого совета офвэ 25-27 декабря 2006 года Деятельность отдела вычислительных систем (овс) iconВ состав учёного совета ноу «Галактика» входят: в состав учёного совета ноу «Галактика» входят
Научные руководители долгосрочных научно-исследовательских или научно-практических проектов
Сессия Ученого совета офвэ 25-27 декабря 2006 года Деятельность отдела вычислительных систем (овс) iconВ октябре 2006 года
Мпр россии и Генеральным Директоратом по окружающей среде кес постоянного Совета Партнерства в области охраны окружающей среды Россия...
Сессия Ученого совета офвэ 25-27 декабря 2006 года Деятельность отдела вычислительных систем (овс) iconРасширенная сессия Научного совета по Программе фундаментальных исследований Президиума ран “Нейтринная физика”
Расширенная сессия Научного совета по Программе фундаментальных исследований Президиума ран "Нейтринная физика"
Разместите кнопку на своём сайте:
dok.opredelim.com


База данных защищена авторским правом ©dok.opredelim.com 2015
обратиться к администрации
dok.opredelim.com
Главная страница