티스토리 뷰
df로 용량을 확인할 때는 사용량이 많은데 du로 확인할 때는 용량이 남는 경우가 있습니다.
이럴때는 lsof | grep delted 명령으로 사용중인 파일중 삭제할 스왑파일을 찾아보면 다음과 같이 VI 프로세스가 남아서 스왑파일이 남는 파일을 삭제 해주면 됩니다.
# df로 확인할 때는 사용량이 291G 사용
$ df -h
Filesystem Size Used Avail Use% Mounted on
udev 7.8G 0 7.8G 0% /dev
tmpfs 1.6G 7.3M 1.6G 1% /run
/dev/sda2 440G 291G 132G 69% /
tmpfs 7.8G 64K 7.8G 1% /dev/shm
tmpfs 5.0M 0 5.0M 0% /run/lock
tmpfs 7.8G 0 7.8G 0% /sys/fs/cgroup
/dev/sda1 511M 4.4M 507M 1% /boot/efi
tmpfs 1.6G 0 1.6G 0% /run/user/1000
# du로 확인 했을 때는 23G 사용
$ sudo du -sh /
23G /
# lsof 로 삭제 파일 확인
# lsof | grep deleted
vi 32694 deploy 4u REG 8,2 288240922624 1838671 //test/.sample.py.swp (deleted)
반응형
'리눅스' 카테고리의 다른 글
[ubuntu] 이더넷이 2개 일때 외부로 나갈 때 사용하는 이더넷 확인하는 방법 (0) | 2023.06.03 |
---|---|
[ubuntu] python 빌드 하는 방법 (0) | 2023.03.21 |
[vm] ubuntu 클라우드 이미지에서 apt 사용시 E: Could not get lock /var/lib/dpkg/lock-frontend 오류 발생시 처리 방법 (0) | 2021.12.29 |
[vi] VI의 기본 인코딩을 utf-8로 설정 (0) | 2021.12.21 |
[ubuntu] 크론탭 설정 중 crontab rename: Operation not permitted (0) | 2021.07.27 |
반응형
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- Linux
- Tez
- java
- 하둡
- 파이썬
- 백준
- 하이브
- error
- SQL
- mysql
- bash
- 정올
- emr
- S3
- HIVE
- build
- HDFS
- nodejs
- AWS
- 알고리즘
- hbase
- SPARK
- ubuntu
- oozie
- airflow
- Hadoop
- yarn
- Python
- 다이나믹
- 오류
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함