Conociendo mi Sistema#
Carga del Sistema (Load Average)#
La carga del sistema es una medida de la cantidad de trabajo computacional, que un sistema de cómputo realiza.
Existe el término Load Average que se refiere al promedio de la carga del sistema, durante un periodo específico de tiempo. Normalmente es representado por 3 números que representan la carga del sistema durante periodos de 1, 5 y 15 minutos.
El promedio de la carga del sistema en equipos con multiples procesadores se puede interpretar dividiéendo el numero de la carga con la cantidad de cpu que tengamos disponibles.
Por ejemplo, un servidor con 4 cpu o virtual cpu y una carga de 3.1, 1.0, 7.2 se calcula de la siguiente forma:
Comandos de Health Check#
| Comando | Descripción |
|---|---|
| uptime | Muestra por cuanto tiempo se a ejecutado un sistema. |
| free | Muestra la utilización de memoria RAM y memoria Virtual. |
| ps | Muestra una lista de los procesos actuales. |
| top | Muestra una lista de procesos actuales en tiempo real. |
| df | Reporta la utilización del sistema de archivos |
| du | Estima el espacio utilizado por un archivo o directorio. |
uptime#
[vagrant@localhost ~]$ uptime
03:35:34 up 1 min, 1 user, load average: 0.31, 0.15, 0.06
[vagrant@localhost ~]$
free#
[vagrant@localhost ~]$ free
total used free shared buff/cache available
Mem: 987952 123932 632864 12732 231156 708296
Swap: 2047996 0 2047996
[vagrant@localhost ~]$ free -m
total used free shared buff/cache available
Mem: 964 120 618 12 225 692
Swap: 1999 0 1999
[vagrant@localhost ~]$ free -g
total used free shared buff/cache available
Mem: 0 0 0 0 0 0
Swap: 1 0 1
[vagrant@localhost ~]$ free -h
total used free shared buff/cache available
Mem: 964Mi 120Mi 618Mi 12Mi 225Mi 692Mi
Swap: 2.0Gi 0B 2.0Gi
ps#
[vagrant@localhost ~]$ ps
PID TTY TIME CMD
2336 pts/0 00:00:00 bash
2381 pts/0 00:00:00 ps
[vagrant@localhost ~]$
[vagrant@localhost ~]$ ps -ef
UID PID PPID C STIME TTY TIME CMD
root 1 0 0 03:34 ? 00:00:01 /usr/lib/systemd/systemd --switched-root --system --
root 2 0 0 03:34 ? 00:00:00 [kthreadd]
root 3 2 0 03:34 ? 00:00:00 [rcu_gp]
root 4 2 0 03:34 ? 00:00:00 [rcu_par_gp]
root 5 2 0 03:34 ? 00:00:00 [kworker/0:0-cgroup_pidlist_destroy]
root 6 2 0 03:34 ? 00:00:00 [kworker/0:0H-events_highpri]
root 7 2 0 03:34 ? 00:00:00 [kworker/0:1-cgroup_destroy]
root 8 2 0 03:34 ? 00:00:00 [kworker/u2:0-events_unbound]
root 9 2 0 03:34 ? 00:00:00 [mm_percpu_wq]
root 10 2 0 03:34 ? 00:00:00 [rcu_tasks_rude_]
root 11 2 0 03:34 ? 00:00:00 [rcu_tasks_trace]
root 12 2 0 03:34 ? 00:00:00 [ksoftirqd/0]
root 13 2 0 03:34 ? 00:00:00 [rcu_sched]
root 14 2 0 03:34 ? 00:00:00 [migration/0]
root 15 2 0 03:34 ? 00:00:00 [watchdog/0]
root 16 2 0 03:34 ? 00:00:00 [cpuhp/0]
[vagrant@localhost ~]$
[vagrant@localhost ~]$ ps aux
USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND
root 1 0.5 1.5 176584 14968 ? Ss 03:34 0:01 /usr/lib/systemd/systemd --switched-r
root 2 0.0 0.0 0 0 ? S 03:34 0:00 [kthreadd]
root 3 0.0 0.0 0 0 ? I< 03:34 0:00 [rcu_gp]
root 4 0.0 0.0 0 0 ? I< 03:34 0:00 [rcu_par_gp]
root 5 0.0 0.0 0 0 ? I 03:34 0:00 [kworker/0:0-cgroup_pidlist_destroy]
root 6 0.0 0.0 0 0 ? I< 03:34 0:00 [kworker/0:0H-events_highpri]
root 7 0.0 0.0 0 0 ? I 03:34 0:00 [kworker/0:1-cgroup_destroy]
root 8 0.0 0.0 0 0 ? I 03:34 0:00 [kworker/u2:0-events_unbound]
root 9 0.0 0.0 0 0 ? I< 03:34 0:00 [mm_percpu_wq]
root 10 0.0 0.0 0 0 ? S 03:34 0:00 [rcu_tasks_rude_]
root 11 0.0 0.0 0 0 ? S 03:34 0:00 [rcu_tasks_trace]
root 12 0.0 0.0 0 0 ? S 03:34 0:00 [ksoftirqd/0]
root 13 0.0 0.0 0 0 ? I 03:34 0:00 [rcu_sched]
root 14 0.0 0.0 0 0 ? S 03:34 0:00 [migration/0]
top#
df#
[vagrant@localhost ~]$ df
Filesystem 1K-blocks Used Available Use% Mounted on
devtmpfs 476344 0 476344 0% /dev
tmpfs 493976 0 493976 0% /dev/shm
tmpfs 493976 12732 481244 3% /run
tmpfs 493976 0 493976 0% /sys/fs/cgroup
/dev/sda2 18420736 1909108 16511628 11% /
vagrant 256920004 53804076 203115928 21% /vagrant
tmpfs 98792 0 98792 0% /run/user/1000
[vagrant@localhost ~]$ df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 466M 0 466M 0% /dev
tmpfs 483M 0 483M 0% /dev/shm
tmpfs 483M 13M 470M 3% /run
tmpfs 483M 0 483M 0% /sys/fs/cgroup
/dev/sda2 18G 1.9G 16G 11% /
vagrant 246G 52G 194G 21% /vagrant
tmpfs 97M 0 97M 0% /run/user/1000
[vagrant@localhost ~]$ df -H
Filesystem Size Used Avail Use% Mounted on
devtmpfs 488M 0 488M 0% /dev
tmpfs 506M 0 506M 0% /dev/shm
tmpfs 506M 14M 493M 3% /run
tmpfs 506M 0 506M 0% /sys/fs/cgroup
/dev/sda2 19G 2.0G 17G 11% /
vagrant 264G 56G 208G 21% /vagrant
tmpfs 102M 0 102M 0% /run/user/1000
[vagrant@localhost ~]$ df -i
Filesystem Inodes IUsed IFree IUse% Mounted on
devtmpfs 119086 321 118765 1% /dev
tmpfs 123494 1 123493 1% /dev/shm
tmpfs 123494 447 123047 1% /run
tmpfs 123494 17 123477 1% /sys/fs/cgroup
/dev/sda2 9215488 40591 9174897 1% /
vagrant 1000 -999000 1000000 - /vagrant
tmpfs 123494 5 123489 1% /run/user/1000
[vagrant@localhost ~]$
du#
[vagrant@localhost ~]$ du
4 ./.ssh
0 ./etc
0 ./cosas
4 ./importantes
0 ./cosas importantes
0 ./.dir1
0 ./dir2
0 ./padre/hijo
0 ./padre
12 ./abuelo/padre/hijo
4 ./abuelo/padre/hija
16 ./abuelo/padre
16 ./abuelo
0 ./.config/procps
0 ./.config
48 .
[vagrant@localhost ~]$ du -s
48 .
[vagrant@localhost ~]$ du -sh
48K .
[vagrant@localhost ~]$ du -sh *
16K abuelo
0 cosas
0 cosas importantes
0 dir2
0 etc
4.0K ifcfg-enp0s3
4.0K importantes
0 padre
[vagrant@localhost ~]$

