Saltar a contenido

Conociendo mi Sistema#

Carga del Sistema (Load Average)#

La carga del sistema es una medida de la cantidad de trabajo computacional, que un sistema de cómputo realiza.

Existe el término Load Average que se refiere al promedio de la carga del sistema, durante un periodo específico de tiempo. Normalmente es representado por 3 números que representan la carga del sistema durante periodos de 1, 5 y 15 minutos.

El promedio de la carga del sistema en equipos con multiples procesadores se puede interpretar dividiéendo el numero de la carga con la cantidad de cpu que tengamos disponibles.

Por ejemplo, un servidor con 4 cpu o virtual cpu y una carga de 3.1, 1.0, 7.2 se calcula de la siguiente forma:

FORMULA

Comandos de Health Check#

Comando Descripción
uptime Muestra por cuanto tiempo se a ejecutado un sistema.
free Muestra la utilización de memoria RAM y memoria Virtual.
ps Muestra una lista de los procesos actuales.
top Muestra una lista de procesos actuales en tiempo real.
df Reporta la utilización del sistema de archivos
du Estima el espacio utilizado por un archivo o directorio.

uptime#

[vagrant@localhost ~]$ uptime
 03:35:34 up 1 min,  1 user,  load average: 0.31, 0.15, 0.06
[vagrant@localhost ~]$

free#

[vagrant@localhost ~]$ free
              total        used        free      shared  buff/cache   available
Mem:         987952      123932      632864       12732      231156      708296
Swap:       2047996           0     2047996
[vagrant@localhost ~]$ free -m
              total        used        free      shared  buff/cache   available
Mem:            964         120         618          12         225         692
Swap:          1999           0        1999
[vagrant@localhost ~]$ free -g
              total        used        free      shared  buff/cache   available
Mem:              0           0           0           0           0           0
Swap:             1           0           1
[vagrant@localhost ~]$ free -h
              total        used        free      shared  buff/cache   available
Mem:          964Mi       120Mi       618Mi        12Mi       225Mi       692Mi
Swap:         2.0Gi          0B       2.0Gi

ps#

[vagrant@localhost ~]$ ps
    PID TTY          TIME CMD
   2336 pts/0    00:00:00 bash
   2381 pts/0    00:00:00 ps
[vagrant@localhost ~]$
[vagrant@localhost ~]$ ps -ef
UID          PID    PPID  C STIME TTY          TIME CMD
root           1       0  0 03:34 ?        00:00:01 /usr/lib/systemd/systemd --switched-root --system --
root           2       0  0 03:34 ?        00:00:00 [kthreadd]
root           3       2  0 03:34 ?        00:00:00 [rcu_gp]
root           4       2  0 03:34 ?        00:00:00 [rcu_par_gp]
root           5       2  0 03:34 ?        00:00:00 [kworker/0:0-cgroup_pidlist_destroy]
root           6       2  0 03:34 ?        00:00:00 [kworker/0:0H-events_highpri]
root           7       2  0 03:34 ?        00:00:00 [kworker/0:1-cgroup_destroy]
root           8       2  0 03:34 ?        00:00:00 [kworker/u2:0-events_unbound]
root           9       2  0 03:34 ?        00:00:00 [mm_percpu_wq]
root          10       2  0 03:34 ?        00:00:00 [rcu_tasks_rude_]
root          11       2  0 03:34 ?        00:00:00 [rcu_tasks_trace]
root          12       2  0 03:34 ?        00:00:00 [ksoftirqd/0]
root          13       2  0 03:34 ?        00:00:00 [rcu_sched]
root          14       2  0 03:34 ?        00:00:00 [migration/0]
root          15       2  0 03:34 ?        00:00:00 [watchdog/0]
root          16       2  0 03:34 ?        00:00:00 [cpuhp/0]
[vagrant@localhost ~]$
[vagrant@localhost ~]$ ps aux
USER         PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
root           1  0.5  1.5 176584 14968 ?        Ss   03:34   0:01 /usr/lib/systemd/systemd --switched-r
root           2  0.0  0.0      0     0 ?        S    03:34   0:00 [kthreadd]
root           3  0.0  0.0      0     0 ?        I<   03:34   0:00 [rcu_gp]
root           4  0.0  0.0      0     0 ?        I<   03:34   0:00 [rcu_par_gp]
root           5  0.0  0.0      0     0 ?        I    03:34   0:00 [kworker/0:0-cgroup_pidlist_destroy]
root           6  0.0  0.0      0     0 ?        I<   03:34   0:00 [kworker/0:0H-events_highpri]
root           7  0.0  0.0      0     0 ?        I    03:34   0:00 [kworker/0:1-cgroup_destroy]
root           8  0.0  0.0      0     0 ?        I    03:34   0:00 [kworker/u2:0-events_unbound]
root           9  0.0  0.0      0     0 ?        I<   03:34   0:00 [mm_percpu_wq]
root          10  0.0  0.0      0     0 ?        S    03:34   0:00 [rcu_tasks_rude_]
root          11  0.0  0.0      0     0 ?        S    03:34   0:00 [rcu_tasks_trace]
root          12  0.0  0.0      0     0 ?        S    03:34   0:00 [ksoftirqd/0]
root          13  0.0  0.0      0     0 ?        I    03:34   0:00 [rcu_sched]
root          14  0.0  0.0      0     0 ?        S    03:34   0:00 [migration/0]

top#

TOP

df#

[vagrant@localhost ~]$ df
Filesystem     1K-blocks     Used Available Use% Mounted on
devtmpfs          476344        0    476344   0% /dev
tmpfs             493976        0    493976   0% /dev/shm
tmpfs             493976    12732    481244   3% /run
tmpfs             493976        0    493976   0% /sys/fs/cgroup
/dev/sda2       18420736  1909108  16511628  11% /
vagrant        256920004 53804076 203115928  21% /vagrant
tmpfs              98792        0     98792   0% /run/user/1000
[vagrant@localhost ~]$ df -h
Filesystem      Size  Used Avail Use% Mounted on
devtmpfs        466M     0  466M   0% /dev
tmpfs           483M     0  483M   0% /dev/shm
tmpfs           483M   13M  470M   3% /run
tmpfs           483M     0  483M   0% /sys/fs/cgroup
/dev/sda2        18G  1.9G   16G  11% /
vagrant         246G   52G  194G  21% /vagrant
tmpfs            97M     0   97M   0% /run/user/1000
[vagrant@localhost ~]$ df -H
Filesystem      Size  Used Avail Use% Mounted on
devtmpfs        488M     0  488M   0% /dev
tmpfs           506M     0  506M   0% /dev/shm
tmpfs           506M   14M  493M   3% /run
tmpfs           506M     0  506M   0% /sys/fs/cgroup
/dev/sda2        19G  2.0G   17G  11% /
vagrant         264G   56G  208G  21% /vagrant
tmpfs           102M     0  102M   0% /run/user/1000
[vagrant@localhost ~]$ df -i
Filesystem      Inodes   IUsed   IFree IUse% Mounted on
devtmpfs        119086     321  118765    1% /dev
tmpfs           123494       1  123493    1% /dev/shm
tmpfs           123494     447  123047    1% /run
tmpfs           123494      17  123477    1% /sys/fs/cgroup
/dev/sda2      9215488   40591 9174897    1% /
vagrant           1000 -999000 1000000     - /vagrant
tmpfs           123494       5  123489    1% /run/user/1000
[vagrant@localhost ~]$

du#

[vagrant@localhost ~]$ du
4   ./.ssh
0   ./etc
0   ./cosas
4   ./importantes
0   ./cosas importantes
0   ./.dir1
0   ./dir2
0   ./padre/hijo
0   ./padre
12  ./abuelo/padre/hijo
4   ./abuelo/padre/hija
16  ./abuelo/padre
16  ./abuelo
0   ./.config/procps
0   ./.config
48  .
[vagrant@localhost ~]$ du -s
48  .
[vagrant@localhost ~]$ du -sh
48K .
[vagrant@localhost ~]$ du -sh *
16K abuelo
0   cosas
0   cosas importantes
0   dir2
0   etc
4.0K    ifcfg-enp0s3
4.0K    importantes
0   padre
[vagrant@localhost ~]$