-a, --archive archive mode; equals -rlptgoD (no -H,-A,-X)
-r, --recursive recurse into directories
-l, --links copy symlinks as symlinks
-p, --perms preserve permissions
-t, --times preserve modification times
-g, --group preserve group
-o, --owner preserve owner (super-user only)
-D same as --devices --specials
--devices preserve device files (super-user only)
--specials preserve special files
-
https://links.infomee.fr/?7C99iwsuperbes photos de new york de nuit et en altitude
-
https://www.storehouse.co/stories/r3rcy-gotham-7-5kTesté et approuvé
via Skunnyk
-
https://github.com/sitaramc/gitoliteLorsqu'on édite une zone sur le master, il faut bien penser à incrémenter le serial pour que le slave sache qu'un transfert de zone est nécessaire.
Si on veut accélérer ce transfert, on peut aller sur le slave et faire :
sur le slave :
rndc retransfer ma.zone.local
-
https://links.infomee.fr/?AJEkkgAlgo pour faire du random avec poids
-
http://www.javascriptkit.com/javatutors/weighrandom2.shtmlUn exemple de conf pour remonter les data de la JMX cassandra via collectd
-
https://github.com/rubber/rubber/blob/master/templates/cassandra/config/rubber/role/cassandra/collectd-cassandra.confplein d'outils network linux
via arnaub
-
http://xmodulo.com/useful-command-line-network-monitors-linux.htmlSur une debian wheezy, php va "nettoyer" régulièrement le dossier qui contient les fichiers de sessions grâce à un cron dans /etc/cron.d/
Toutes les 30 minutes il va vérifier qu'aucun fichier n'est plus vieux que le gc_maxlifetime (php.ini) qui par défaut est de 24 minutes.
24 minutes !! Ne vous étonnez pas si vous de restez pas connecté à vos applications même en ayant coché la petite case car avec ce comportement par défaut, si votre session n'est pas accédée dans un délai de 24 minutes, elle sera supprimée par le prochain passage du cron..
-
https://links.infomee.fr/?os-nRgTrouver tous les pid des sessions ssh en cours :
ss -tnp|grep ':22'
ss -tp|grep ':22'|grep -Eo ',[0-9]+,'|grep -Eo '[0-9]+'
Trouver depuis quand ces process sont démarrés :
26205 329840
1419103787
Sat Dec 20 20:31:42 CET 2014
One liner :
start time
for pid in $(ss -tp|grep ':22'|grep -Eo ',[0-9]+,'|grep -Eo '[0-9]+'); do date -d@$(echo "$(date +%s) - $(ps -o etimes -p $pid --no-headers)"|bc); done
pid + start time
Si le log level de ssh est en VERBOSE, on peut chercher dans auth.log le fingerprint de la clé publique correspondant à la date à laquelle une session ssh a démarré :
-
https://links.infomee.fr/?9HRSiQPour avoir toujours l'output dans le même ordre (trié), ajouter au bashrc :
function svn() {
case $* in
st ) shift 1; command svn status | sort -k 2 ;;
-
https://links.infomee.fr/?nPIw-gça a l'air bien bien tout ça, à tester
-
https://www.pushbullet.com/Pour vérifier si son compte/email fait parti d'un leak
-
https://haveibeenpwned.com/Comment mettre en place un DNS menteur sur son raspberry pour ne pas servir les pubs.
L'avantage ? pouvoir se passer de adblock x sur ses périphériques qui consomme pas mal de ressources. Une fois en place, il faut juste utiliser le raspberry comme serveur DNS.
-
http://jacobsalmela.com/raspberry-pi-block-ads-adtrap/Dans l'urgence on peut avoir besoin de forcer la rotation de logs un peu trop fat ^^
logrotate --force $CONFIG_FILE
-
http://stackoverflow.com/questions/2117771/is-it-possible-to-run-one-logrotate-check-manuallyBon je m'arrête là je continuerai plus tard..
C'est fou le nombre de pages qui ont disparues :-( il faut vraiment que je remette en place un wallabag (non je ne veux rien laisser sur pocket)
-
https://links.infomee.fr/?2GeOUg1ère bonne résolution : trier le bordel dans mon pocket, supprimer les articles que je ne relirai jamais et shaarliser les autres... ça va être long, c'est parti
-
https://links.infomee.fr/?HkqHiwJe préfère cette solution, à savoir passer sshd en VERBOSE.
L'autre solution consiste à utiliser environment dans le fichier authorized_keys puis à écrire dans un fichier (à l'aide de .bashrc par exemple). Mais l'utilisateur peut modifier ce fichier..
ssh-keygen -lf /path/to/public_key_file
-
http://serverfault.com/questions/291763/is-it-possible-to-get-openssh-to-log-the-public-key-that-was-used-in-authenticatOk Ok, ça m'aurait évité de modifier le logformat de mon apache..
via arnaudb
-
http://www.mn-home.fr/article46.htmlun listener qui permet d'envoyer un seul evenement logstash pour plusieurs lignes de logs.
Si on a la main sur le code source, c'est quand meme plus simple de logger en json : 1 ligne = 1 event
Dans ce cas on peut utiliser le plugin imfile de rsyslog pour surveiller le fichier et envoyer les events :)
-
https://github.com/etsy/logstash-forwarder
-
https://links.infomee.fr/?AyHsGAah genial pour balancer du stream sur la tv!
-
http://misapuntesde.com/post.php?id=232Pour envoyer direct dans ES depuis rsyslog
(se passer de logstash devient donc possible dans certains cas)
-
http://www.rsyslog.com/performance-tuning-elasticsearch/Sympa la fonction dans les commentaires, mais pour un gros historique, penser à rajouter un "-l 3" au svn log pour avoir seulement l'historique des 3 derniers changements.
La version modifée avec le "-l 3" :
#
function history_of_file() {
url=$1 # current url of file
svn log -l 3 -q $url | grep -E -e "^r[[:digit:]]+" -o | cut -c2- | sort -n | {
echo
read r
svn log -r$r $url@HEAD
svn cat -r$r $url@HEAD
echo
while read r
do
echo
svn log -r$r $url@HEAD
svn diff -c$r $url@HEAD
echo
done
}
}
history_of_file $1
-
http://stackoverflow.com/questions/282802/how-can-i-view-all-historical-changes-to-a-file-in-svnDans la vue Discover de Kibana4, si vous ne voyez pas tous les champs d'une entrée....
Tentez cette manip' : Settings > Indices > Select your indice (logstash-*) > then refresh..
Cette liste a parfois du mal à se rafraichir si il y a trop de documents/de champs (PS : plusieurs heureuse de debug sans résultat, la solution m'a été donnée sur irc : freenode#kibana) thx rashidkpc
-
https://links.infomee.fr/?ANfw7ALe système de plugin d'elasticsearch est vraiment bien foutu.
Quelques plugins sympa pour avoir un aperçu de la santé de son cluster :
https://github.com/karmi/elasticsearch-paramedic
https://github.com/mobz/elasticsearch-head
https://github.com/lukas-vlcek/bigdesk
Pour les installer, c'est à chaque fois pareil, en une ligne :
/usr/share/elasticsearch/bin/plugin -install lukas-vlcek/bigdesk
/usr/share/elasticsearch/bin/plugin -install karmi/elasticsearch-paramedic
/usr/share/elasticsearch/bin/plugin -install mobz/elasticsearch-head
Pour savoir quels plugins sont installés et par quelle urls y accéder :
curl -s -XGET 'http://localhost:9200/_nodes?pretty' | grep plugin
-
http://www.elasticsearch.org/guide/en/elasticsearch/reference/current/modules-plugins.html