вторник, 31 мая 2011 г.

UDP-NFS на гигабите?

Нашёл в вакансиях селектела строчку

понимать...почему nfs, гигабит и udp не дружат друг с другом...

"Дело не в скорости... а в том, что данные могут тихо и незаметно испортиться из-за циклически используемых идентификаторов (для этого еще должна совпасть контрольная сумма в UDP-заголовке...)."
Из обсуждения http://www.linux.org.ru/forum/job/6167272

О брендах

Многие компании любят дарить брендированные вещи. Но одно дело, когда через пол года разваливается рюкзачок компании softline - компания мелкая, ей такое можно.. Но когда что-то дарят именитые бренды - тут уже надо следить лучше. Они дарят не просто ручку/футболку, они дарят продукт с их логотипом. И если быстро ломаются такие вот подарки - что можно сказать о их продукции?

selectel на хабре

У них весьма интересные услуги "облако".

http://habrahabr.ru/company/selectel/blog/

В контакте:
http://selectel.vkontakte.ru

portdowngrade

Используем portdowngrade на примере
http://habrahabr.ru/blogs/personal/98946/

дока 2
http://www.lissyara.su/articles/freebsd/tuning/portdowngrade/

Проблема в том, что надо было откатить апач с .17 на .16 - не вышло. Нету предыдущих версий. Так что иногда таки сохраняю копию /usr/ports.

Иногда вылезает бага "введите пароль". Лечится через ключ -s:
portdowngrade -s "anoncvs@anoncvs.tw.FreeBSD.org:/home/ncvs" lang/php5
Но даже так можно получить облом, что нет нужной версии. Поэтому увы, но надо сохранять порты с нужными версиями перла и пхп.

понедельник, 30 мая 2011 г.

intel SandyBridge

Сравнительная линейка для выбора среди Intel Xeon процессоров
http://phpsuxx.blogspot.com/2011/05/intel.html

Что обозначают префиксы W, E, X, L процессоров Xeon и суффиксы K, S, T у Core i7 2 поколения?
http://phpsuxx.blogspot.com/2011/05/w-e-x-l-xeon-k-s-t-core-i7.html

Обзоры Intel i7 2600
http://phpsuxx.blogspot.com/2011/05/intel-i7-2600.html

Intel чипсеты для процессоров Intel i7
http://en.wikipedia.org/wiki/List_of_Intel_chipsets#5.2F6.2F7_Series_chipsets

Установка 32 гб памяти на процессоры серии i7 2600
http://phpsuxx.blogspot.com/2011/05/32-i7-2600.html

Установка ionCube на Debian

смотрим нашу версию php
php -v

Создаём каталог
cd $(mktemp -d)

Смотрим архитектуру и качаем нужную версию
uname -m

wget http://downloads.ioncube.com/loader_downloads/ioncube_loaders_lin_x86.tar.gz
или
wget http://downloads.ioncube.com/loader_downloads/ioncube_loaders_lin_x86-64.tar.gz

(офсайт)

распаковываем
tar zxvf ioncube_loaders_lin_*

перемещаем на новое место
mv ioncube /usr/local/
или
mv ioncube /opt/

дальше надо вписать в конфиги php, но некоторые доки советуют вписывать в php.ini - это неправильно. Причём был случай - клиент сам вписал куда-то в середину файла и php просто его игнорировал. Правильно - создать отдельный файл в /etc/php5/conf.d/
echo "zend_extension=/usr/local/ioncube/ioncube_loader_lin_5.2.so" >> /etc/php5/conf.d/ioncube.ini
Эта строка может меняться, если мы сохранили в /opt или у нас другая версия php, приводим под свою систему.

Теперь проверяем. Проверка через phpinfo() мало что даёт -- если модуль не подключился, он там указан не будет. Но причин не покажет. Надо через сам php:
php -v

Виды ответов:
Failed loading /usr/local/ioncube/ioncube_loader_lin_5.2_ts.so: /usr/local/ioncube/ioncube_loader_lin_5.2_ts.so: wrong ELF class: ELFCLASS32
Скачана 32-бит версия, а нужна 64.

Failed loading /usr/local/ioncube/ioncube_loader_lin_5.2_ts.so: /usr/local/ioncube/ioncube_loader_lin_5.2.so: wrong ELF class: ELFCLASS64
Тут наоборот, система 32 бита (x86), а скачали 64 (x86-64). Качаем версию под 32 бита.

Failed loading /usr/local/ioncube/ioncube_loader_lin_5.2_ts.so: /usr/local/ioncube/ioncube_loader_lin_5.2_ts.so: undefined symbol: core_globals_id
Значит, нам нужен другой вариант (не _ts)

С "не той" версией php не проверялось.

Когда всё нормально, у меня полнвый вывод был такой:
# php -v
PHP 5.2.6-1+lenny9 with Suhosin-Patch 0.9.6.2 (cli) (built: Aug 4 2010 06:06:53)
Copyright (c) 1997-2008 The PHP Group
Zend Engine v2.2.0, Copyright (c) 1998-2008 Zend Technologies
with the ionCube PHP Loader v4.0.8, Copyright (c) 2002-2011, by ionCube Ltd.

Теперь перезапустим апач
/etc/init.d/apache2 restart

Теперь в phpinfo() должна появиться подпись как в php -v и в Additional Modules будет строка ionCube Loader

Делалось на основе доки http://magento-forum.ru/topic/1008/, но переработано и дополнено.

пятница, 27 мая 2011 г.

очиска кэша в ispmanager

1) /usr/local/ispmgr/sbin/pkgctl -D cache
Заодно и перестроит.

2) /usr/local/ispmgr/sbin/pkgctl -D -m ispmgr cache
вариант.

3) rm -rf /usr/local/ispmgr/var/.xmlcache
Просто стереть список пакетов, перестроит при новом обращении.

Но после сброса кэша надо перезапустить сам isp:
killall -9 ispmgr

среда, 25 мая 2011 г.

strace

используем strace, чтобы понять, почему процесс ест проц :)

FreeBSD.
Для начала, поставим сам strace
#portinstall strace

Теперь подключим /proc
#kldload procfs
# mount -t procfs proc /proc/
(или вписываем в fstab:
proc /proc procfs rw,noauto 0 0
и делаем просто mount /proc)

Также есть штатный отладчик truss, ну и про gdb не забываем.

Оказалось, скрипт каждый раз пережевывал (stat) каталог, в котором было 700к+ файлов-сессий, но это уже не к этой заметке :)

Основы strace:
http://ipesin.linux.kiev.ua/translations/rhm/strace.html

Про strace и gdb
http://www.ibm.com/developerworks/ru/library/au-unix-strace/

Более подробное описание strace:
http://welinux.ru/post/5035/


UPD
** Port marked as IGNORE: devel/strace:
is only for i386, while you are running amd64

Так что подходит не всегда..

Работаем в sh

http://steve-parker.org/sh/
(если что -- справа меню-оглавление)
Рекомендуется к прочтению.

вторник, 24 мая 2011 г.

Zabbix: продолжение

После установки надо разобраться, на что смотреть и куда нажимать.

FreeBSD: Установка и начальная настройка системы мониторинга Zabbix
http://www.sergeysl.ru/freebsd-zabbix/


Потом надо научиться создавать шаблоны
Создание шаблонов для системы мониторинга Zabbix
http://www.tune-it.ru/web/tiamat/home/-/blogs/17465

Дальше надо читать офдоку:
http://www.zabbix.com/documentation/ru/1.8/complete

Серия статей про установку и настройку системы мониторинга Zabbix во FreeBSD:
"Настройка Zabbix для проверки доступности канала.",
"Настройка доставки сообщения (email) в Zabbix",
"Настройка Cisco 2950 для мониторинга с помощью Zabbix",
"Установка агента Zabbix для FreeBSD",
"Инсталляция и настройка Zabbix на FreeBSD 7.2",
"Настройка Zabbix для проверки доступности канала."
http://www.opennet.ru/opennews/art.shtml?num=25157
---
Шаблоны

FreeBSD: Мониторинг состояния оборудования с поддержкой IPMI в Zabbix
http://www.sergeysl.ru/freebsd-ipmi-monitoring-on-zabbix/

Коллекция IPMI шаблонов для системы мониторинга Zabbix
http://www.tune-it.ru/web/tiamat/home/-/blogs/17559

Набор шаблонов, в том числе под mysql
http://forum.itrm.ru/index.php?t=msg&th=94&start=0&rid=0

Довольно известный набор ZTC (Zabbix Templates Collection)
http://greenmice.info/ru/node/135

---
Шаблоны под конкретный софт

apache
http://www.badllama.com/content/monitor-apache-zabbix

nginx
http://umgum.com/zabbix-nginx-php-fastcgi
http://www.badllama.com/content/monitor-nginx-zabbix
http://www.zabbix.com/forum/showthread.php?t=26585
http://wiki.enchtex.info/howto/zabbix/nginx_monitoring
http://habrahabr.ru/post/139165/
http://habrahabr.ru/post/140184/

mysql
http://www.badllama.com/content/monitor-mysql-zabbix

memcached
http://www.badllama.com/content/monitor-memcached-zabbix

mongodb
http://habrahabr.ru/post/143498/

named и CentOS

Разбираемся с тем, что и где стоит.
Для начала, откроем /etc/init.d/named
Пробежав по коду, становится понятно, что где лежит и чего оно читает.
В частности, конфиг-файл /etc/sysconfig/named
Сейчас у меня там ROOTDIR=/var/named/chroot
Значит, все правки и надо вносить туда. Ну и комментарии полезны.
Вопрос только, зачем тогда оно гадит в /etc/named*
Хотя иногда и не ставит свои конфиги ) И надо тогда их переносить руками. Обычно они лежат по пути /usr/share/doc/bind-*/sample/etc/named.conf

s3cmd

Офсайт
http://s3tools.org/s3cmd

Описание s3cmd sync
http://s3tools.org/s3cmd-sync
в том числе —-exclude / —-include и их варианты с регулярками и файлами.

Также интересен
S3fuse

Filesystem driver for Linux FUSE (Filesystem in USErspace). It will allow for mounting the S3 storage as a fully fledged filesystem to your Linux box.

Есть особенность в том, что есть bucket, но нет команды создания там каталогов... Но это особо и не нужно: s3cmd sync . s3://ourbucket/my/new/path (my/new/path не существует пока) отработает нормально и все пути создаст. Хотя в самом скрипте и есть закомментированный блок:
#{"cmd":"mkdir", "label":"Make a virtual S3 directory", "param":"s3://BUCKET/path/to/dir", "func":cmd_mkdir, "argc":1},
Так что может в дальнейшем и будет такая команда.

Дока с примерами:
http://www.tech6i.com/how-to-use-s3cmd-sync-to-syncrsync-your-data-with-your-s3-bucket/

Many of you have asked whether s3cmd supports Reduced Redundancy Storage recently introduced by Amazon. Yes it does!
RRS is supported in s3cmd 1.0.0-rc1 and newer

Oh, by the way, the magic switch is --reduced-redundancy or --rr for put, sync, cp and mv commands.
http://s3tools.org/reduced-redundancy-storage
You don’t need the development version for this; at least on 0.9.9.91 (recent Ubuntu distro), just add the header as documented by Amazon:

—add-header=x-amz-storage-class:REDUCED_REDUNDANCY

Конвертация non-rr to rr
http://www.bryceboe.com/2010/07/02/amazon-s3-convert-objects-to-reduced-redundancy-storage/

Впрочем, есть проблемы. В частности, копирование 80к картинок +чуть-чуть flv видео занимает много часов, хотя общий объем там относительно небольшой, около гига, канал 10мбит.
С синхронизацией тоже не всё хорошо - грузит проц, проблемы с симлинками итд. Надо читать комменты по ссылкам выше.

понедельник, 23 мая 2011 г.

Вывод списка директорий

Многие сразу назовут
find . -type d -depth 1
Но в небольшой папке на 100 гиг и всего 150 директориями вывод занял почти 2 минуты. Делается слишком много лишней работы.

Более быстрые варианты:
ls -1F | grep "/"
ls -lA | grep "^d" | awk '{print $9}'

Но будет показывать в том числе директории с точкой в начале. Если не надо - нужно доработать grep-правило.

И всё-таки мне непонятно, если поиску сказано проверять только на 1 уровень, какого он лезет глубже..

Мониторинг нагрузки сайтов

На основе ps
http://vir2oz.net/products/vmonitor

На основе системных методов
http://forum.ispsystem.com/ru/showthread.php?t=14346
(freebsd+acct)

http://unixhome.org.ua/blog/programs/362.html
(linux+psacct)

пятница, 20 мая 2011 г.

Дотачиваем apache-ITK во FreeBSD

Столкнулся с тем, что в конфиге нет упоминаний про режим работы ITK.

Включаем в Includes файл со строками


<location /server-info>
SetHandler server-info
Order deny,allow
Deny from all
Allow from .example.com
</Location>

(правим адреса)

Заходим и смотрим. Мне понадобилась часть про Module Name: itk.c
И обнаруживаем, что подключается файл
In file: /usr/local/etc/apache22/Includes/apache-itk.conf
Так что править надо в нём.

Там же - информация о названиях переменных, значениях по умолчанию...

Вообще, тут очень много полезной инфы, в том числе для взломщиков, поэтому недопустимо открывать эту инфу для всех! К тому же, это сильно грузит сервер. В идеале - вообще включать только на время, когда надо что-то проверить, и даже при этом использовать авторизацию.

Установка Zend в CentOS

http://files.zend.com/help/Zend-Server/rpm_installation.htm

Если требуется только фреймворк, ставится пакет zend-server-framework
Но если надо больше - zend-server-php-5.2 или zend-server-php-5.3

вторник, 17 мая 2011 г.

Введение в SAS

http://h20000.www2.hp.com/bc/docs/support/SupportManual/c01613420/c01613420.pdf

Дальше можно читать на сайте http://www.scsita.org/

SAS или SATA?

Сейчас тенденции в серверостроении таковы, что SATA диски вытесняются. Раньше, когда серверные и бытовые диски не пересекались, всё было просто: IDE в быту, SCSI в серверах. Разные возможности, скорости, полная несовместимость интерфейсов.. Но потом появился новый стандарт, вобравший в себя всё хорошее из старых интерфейсов и много нового.
А что такое SAS? Это serial attached SCSI. Новый виток в развитии, использующий не параллельную шину, а последовательную, поэтому нужно не 80 проводов, а 7.
SATA - это упрощённый SAS. Механически они совместимы, и sata диски понимаются sas-контроллерами, а вот наоборот - нет.
С механикой тоже раньше было просто - сложная и дорогая механика у серверных дисков, дешёвая и простая в бытовых.. А сейчас есть и бытовые диски с MTBF больше миллиона часов, но sata разъемом. Это ES-серия сигейтов, RE у wd... Есть даже wd raptor - единственные известные мне диски с 10к оборотами, но бытовым интерфейсом.
Но бывают и почти бытовые диски с SAS интерфейсом, это так называемые Nearline (NL) диски.
Чем они так хороши, что IBM полностью отказалась от поддержки SATA в системах хранения DS серий? Они сами заявляют "до 30% увеличенная производительность", но за счёт чего? Поддержка приоритезации TCQ? Оно есть и в SATA - NCQ с первых ревизий.
Больше кэша? Дисковый кэш обычно отключается, когда диски подключены к raid-контроллерам.
Как sata 2, так и sas это 300мб/с, так что дело не в скорости шины.
Основным отличием можно назвать разве что 2 порта у SAS против 1 у SATA, но судя по информации с вики:
"Аппаратура SAS поддерживает связь инициатора с целевыми устройствами по нескольким независимым линиям: в зависимости от реализации можно повысить отказоустойчивость системы и/или увеличить скорость передачи данных. Интерфейс SATA версии 1 такой возможности не имеет. В то же время, интерфейс SATA версии 2 использует дубликаторы портов для повышения отказоустойчивости."
Хотя штатно подключить 1 диск к 2 серверам проще всё-таки для SAS (при условии, что это ещё и backplane поддерживает), и сам диск 2-портовый (старые диски были часто 1-портовые).

А вот цена диска с SAS контроллером выше.

Nearline SAS – combines the head, media, and rotational speed of traditional enterprise class SATA drives with the fully capable SAS interface typical of 10K/15K RPM SAS drives. These drives are rated at 1.2 million hours MTBF.
Enterprise SATA – true enterprise class specifications, rated at 1.2 million hours MTBF, these drives provide the traditional SATA interface, but with capabilities far exceeding consumer grade SATA drives.
http://www.dell.com/content/topics/topic.aspx/global/products/pvaul/topics/en/hard-drives?c=us&l=en&cs=555

PS
LFF - large form factor - 3.5" диск
SFF - small form factor - 2.5" диск.

понедельник, 16 мая 2011 г.

Лимит для пользователя на количество отправляемых email

http://forum.ispsystem.com/ru/showthread.php?t=6445
exim

http://forum.ispsystem.com/ru/showthread.php?t=8427
sendmail

"В postfix есть отдельный демон anvil для этих целей, также рекомендую использовать отдельный сервер policyd для этого"
http://forum.ispsystem.com/ru/showthread.php?t=15032

Ключевое слово ratelimit

Когда кончается память...

CentOS, кончилась память на одной машине, своп тоже. Удалось подключиться по ссш и снять ошибки, кусок ниже (они повторяются)

Swap cache: add 273609, delete 273183, find 8928/9325, race 0+3
Free swap = 0kB
Total swap = 1081336kB
audispd invoked oom-killer: gfp_mask=0x201d2, order=0, oomkilladj=0
[] out_of_memory+0x72/0x1a3
[] __alloc_pages+0x24e/0x2cf
[] __do_page_cache_readahead+0xc8/0x18b
[] filemap_nopage+0x157/0x34c
[] __handle_mm_fault+0x329/0x1487
[] do_futex+0x710/0xbf2
[] do_readv_writev+0x22e/0x247
[] do_page_fault+0x6c0/0xc23
[] sys_futex+0x111/0x127
[] do_page_fault+0x0/0xc23
[] error_code+0x2b/0x30
=======================
DMA per-cpu:
cpu 0 hot: high 186, batch 31 used:17
cpu 0 cold: high 62, batch 15 used:14
cpu 1 hot: high 186, batch 31 used:2
cpu 1 cold: high 62, batch 15 used:49
DMA32 per-cpu: empty
Normal per-cpu: empty
HighMem per-cpu: empty
Free pages: 2876kB (0kB HighMem)
Active:Normal free:0kB min:0kB low:0kB high:0kB active:0kB inactive:0kB present:0kB pages_scanned:0 all_unreclaimable? no
lowmem_reserve[]: 0 0 0 0
HighMem free:0kB min:1audispd invoked oom-killer: gfp_mask=0x201d2, order=0, oomkilladj=0
[] out_of_memory+0x72/0x1a3
[] __alloc_pages+0x24e/0x2cf
[] __do_page_cache_readdequeue_task+0x13/0x26
[] _spin_lock_irqsave+0x8/0x28
[] lock_hrtimer_base+0x19/0x35
[] hrtimer_try_to_cancel+0x3c/0x42
[] do_page_fault+0x6c0/0xc23
[] hrtimer_nanosleep+0x50/0x106
[] do_page_fault+0sys_select+0x15a/0x180
[] do_page_fault+0x0/0xc23
[] error_codecpu 0 hot: high 186, batch 31 used:15
cpu 0 cold: high 62, batch 15 used:16
cpu 1 hot: high 186, batch 31 used:24
cpu 1 cold: high 62, batch 15 used:16
DMA32 per-cpu: empty
Normal per-cpu: empty
HighMem per-cpu: empty
Free pages: 2916kB (0kB HighMem)
Active:40997 inactive:44364 dirty:2 writeback:0 unstable:0 free:729 slab:21897 mapped-file:1182 mapped-anon:83744 pagetables:17893
DMA free:2916kB min:2916kB low:3644kB high:4372kB active:163988kB inactive:177456kB present:532480kB pages_scanned:878701 all_unreclaimable? yes
lowmem_reserve[]: 0 0 0 0
DMA32 free:0kB min:0kB low:0kB high:0kB active:0kB inactive:0kB present:0kB pages_scanned:0 all_unreclaimable? no
lowmem_reserve[]: 0 0 0 0
Normal free:0kB min:0kB low:0kB high:0kB active:0kB inactive:0kB present:0kB pages_scanned:0 all_unreclaimable? no
lowmem_reserve[]: 0 0 0 0
HighMem free:0kB mincrond invoked oom-killer: gfp_mask=0x201d2, order=0, oomkilladj=0
[] out_of_memory+0x72/0x1a3
[] __alloc_pages+0x24e/0x2cf
[Active:48666 inactivDMA32 free:0kB min:0kB low:0kB high:0kB active:0kB inaHighMem free:0kB min:128kB lo0*4096kB = 2888kB
DMA32: empty
Normal: empty
HighMem: empty
2569 pagecache pages
Swap cache: add 1314270, delete 1313843, find 200003/331661, racOut of memory: Killed process 31528, UID 0, (php).

Единственный вариант при этом - сделать хард резет. Софт тоже выполниться не может.

Борьба с этим - настраивать лимиты и настроить сервер так, чтобы процессы не могли занять памяти сильно больше, чем доступно.

IPFW

http://www.lissyara.su/articles/freebsd/tuning/ipfw/
http://www.lissyara.su/articles/freebsd/tuning/ipfw_nat/
http://www.lissyara.su/articles/freebsd/tuning/memoranda_about_ipfw/
http://www.lissyara.su/doc/docs/handbook_-_ipfw/

среда, 11 мая 2011 г.

Облака: за и против

С одной стороны, облачная структура удобна и снимает проблемы вроде "отказа жесткого диска в сервере" - само облако должно вывести неисправный узел из работы, перекинув все задачи на другой сервер. С другой - в приватном облаке надо больше железа, более дорогой софт для создания и управления этим облаком, а в публичном - угрозы вроде потери контроля, потери данных, компрометация данных, вмешательство сотрудников облака в работу наших серверов, "цензура"...

Плюс к размышлению:
Amazon восстанавливает облачные службы AWS
Беды Sony могут заставить многих изменить планы в отношении облачных служб

Карма?

Похоже, у разных людей по разному работает и ломается техника. У меня 99% проблем возникало из-за вспухших кондёров в БП (перепаять могу, но сам факт), у одного знакомого - из-за памяти.. Нет, бывало конечно и память сыпалась, но таких случаев было 2-3 лет за 10-15, а БП уже выкинул/перепаял под сотню.

вторник, 10 мая 2011 г.

Сброс забытого пароля HP iLO из консоли Debian GNU/Linux

http://www.opennet.ru/tips/2558_debian_hp_ilo_console.shtml

Возникла необходимость сброса утерянного пароля к iLO, на сервере HP DL360G4.
Сбросить пароль можно при помощи утилиты hponcfg, которую можно загрузить из специального
репозитория на сайте HP. Репозиторий доступен для большого числа популярных Linux-дистрибутивов, среди которых и Debian GNU/Linux.

http://downloads.linux.hp.com/SDR/psp/

понедельник, 9 мая 2011 г.

php-ускорители в debian

Поскольку debian не переносит "закрытого" софта, а любимый всеми eaccelerator закрытый -- его штатно не поставить, только собирая из исходников. Что не всегда хорошо.
В принципе, можно попробовать найти "некошерную" репу и подключить, но я пока такой не нашел.
Зато штатно есть xCache - есть проблемы, но в целом работает нормально.

Есть ещё вариант - поставить Ubuntu, это тот же дебиан, но несколько более user-friendly. Плюс не страдает полной открытостью кода (пока что). Вопрос в сборке - не уверен, что в ubuntu server есть нужный пакет, не проверял. Вполне может быть в обычных дистрах.
Можно будет попробовать поставить этот пакет в оригинальном дебияне (если такой есть вообще).

четверг, 5 мая 2011 г.

Проверка айпи в спам-листах

http://www.spamhaus.org/query/bl?ip=1.1.1.1
http://www.senderbase.org/senderbase_queries/detailip?search_string=1.1.1.1
http://support.clean-mx.de/clean-mx/publog?ip=1.1.1.1
http://www.spamcop.net/w3m?action=checkblock&ip=1.1.1.1

"Массовая" проверка в листах:
http://www.dnsbl.info/dnsbl-database-check.php

PS
Ни в коем случае не используйте sorbs! Отвратительная система. Проверить айпи в списке без регистрации невозможно, удалиться тем более. "проверить без регистрации" ведет на страницу регистрации. Автоматической отписки по неактивности (нет больше спама) нету. Для регистрации перекидывает на https, самоподписанный. Для регистрации требуется: личный телефон (!), рабочий (!!), мобильный (!!!), полная информация о нахождении, почта не на бесплатном хостинге... Кем они себя возомнили, хозяевами мира? Осталось только брать деньги за удаление из бана и будет стандартная система жуликов.. не знаю, как таких называть. Это как псевдоантивирусы, которые не только ничего не лечат, но и сами троянов засылают.
Может у кого есть идеи, как бойкотировать такие системы?

(создам отдельную копию сообщения про сорбс)

Получение статистики

Интересный сайт:
http://www.1stat.ru

http://www.1stat.ru/?ns=
http://www.1stat.ru/?domain=

среда, 4 мая 2011 г.

ls: /var/www: Stale NFS file handle

Такую же ошибку может выдавать и обычная ФС при попытке удаления файлов (1), но сейчас речь про нормальные NFS mounts

# lsof /var/www
lsof: WARNING: can't stat() nfs file system /var/www
Output information may be incomplete.
lsof: status error on /var/www: Stale NFS file handle
lsof 4.78


[root@aqua3 ~]# /etc/init.d/nfs restart
Shutting down NFS mountd: [ OK ]
Shutting down NFS daemon: [ OK ]
Shutting down NFS quotas: [ OK ]
Shutting down NFS services: [FAILED]
Starting NFS services: [ OK ]
Starting NFS quotas: [ OK ]
Starting NFS daemon: [ OK ]
Starting NFS mountd: [ OK ]

Если не помогло - можно сделать umount -f ..., mount ...
Но обычно эта ошибка возникает, если что-то не так на стороне сервера.

A filehandle becomes stale whenever the file or directory referenced by the handle is removed by another host, while your client still holds an active reference to the object. A typical example occurs when the current directory of a process, running on your client, is removed on the server (either by a process running on the server or on another client).

В данном случае виной была опция crossmnt. Правда, не совсем понимаю, при чём тут это..

Полезные ссылки:
http://www.cyberciti.biz/tips/nfs-stale-file-handle-error-and-solution.html
http://sysunconfig.net/unixtips/stale_nfs.txt

вторник, 3 мая 2011 г.

D-Link DWL-2100AP

Полезный материал: http://forum.ixbt.com/topic.cgi?id=14:52255

Сайт разработчика прошивки: http://lizzi555.dyndns.org/

В режиме клиента полезно выставить
set matstate 1
reboot

без этой команды за точкой может быть только 1 клиент, причём роутер в WAN-порт работать не будет (во всяком случае, asus не работали). Работает, если стоит pc-based роутер. С этой командой можно поставить свич и хоть 10 железок.

Если используется внешняя антенна (не штатная 3Дб, а выносная или вообще уличная), надо переключить с режима 2 антенн (внутренняя + внешняя) на внешнюю
set ant 1

Есть недокументированный режим повышения мощности
"эти команды надо вводить в "привилегированном" режиме - перед ними надо ввести две команды - alpha <enter> + sdd21234 <enter> 
С этим режимом осторожнее - у меня лежит в шкафу 2100 уже - ждёт распайки jtag "
set overridetxpower 19
set minimumrate 0.25
set enableANI 1
set noiseImmunityLvl 2

Да, ещё перегрузка чипа ведёт к его перегреву, быстрой деградации и выгоранию. Если задирать мощность, ставить активное охлаждение.

По версиям прошивки. Не знаю как дома, а в бизнес-центре 2.50 показала себя очень плохо - часто клиенты не могут подключиться, когда на точке есть хотя бы пара человек. На 2.40 подключались до 10. Вообще, стабильность точки в условиях офисов оказалась плохой -- в ap client подключается не всегда, иногда надо вынимать питание секунд на 30, от 1 до 5 раз. Связка 2100-2100.
Клиенты не всегда подключаются, пока на самих АР не дёрнуть питание. Даже хвалёные ipad. Так что это явно беда точек.

Пару дней при переезде между комнатами работали 2100-2100 в режиме АР и клиент, за ними стояли пара серверов. От точки до точки - метров 5 через гипсокартонную стену. ssh отваливались, днс резолвились через раз (там днс был)... Правда, стоял режим matstate, без него проверить не мог - точек-клиентов не хватило бы. В общем, удручающе плохое качество соединения.
При этом в незашумлённых другими точками условиях работал мостик метров на 400, работал вполне сносно и даже бегал SIP-трафик. Режим был WDS.

Есть интересный менеджер acowa, но пока не тестировал.
Штатный менеджер почти во всём устраивает.

Линки по cisco

http://www.hilik.org.ua/category/cisco/

Out of memory

Стал падать сайт на битриксе на openvz, выдавая иногда
Fatal error: Out of memory (allocated 246153216) (tried to allocate 90 bytes) in /var/www/site/data/www/test.site.ru/bitrix/modules/main/classes/mysql/database.php on line 786
Скрипт отжирал всю память (256М) и падал. При этом иногда уносило за собой и мускуль, и нгинх...

И это при том, что в php.ini выставлен лимит в 64М. phpinfo это подтвердил.
в .htaccess прописывалось также
php_value memory_limit "64M"

Сделать ulimit -s 1024 и перезапустить апач не помогло.

Вообще, гугль в данном случае оказался плохим помощником - все жаловались на то, что скрипту выделяется слишком мало памяти, у меня же получалось наоборот.

Был еще вариант - выставить eaccelerator.shm_size поменьше, но у меня eaccelerator вообще не стояло (на сервере debian).

Может кто знает, как фиксить?