분류 전체보기 (650) 썸네일형 리스트형 [ PostgreSQL ] PostgreSQL 버전 확인하기 PostgreSQL에서 현재 설치된 버전 정보를 확인하려면 다음 명령을 사용할 수 있습니다.1. SQL 쿼리를 사용하는 방법PostgreSQL에 접속한 상태에서 다음 쿼리를 실행합니다:SELECT version();출력 예시:PostgreSQL 15.2 on x86_64-pc-linux-gnu, compiled by gcc (GCC) 11.3.0, 64-bit2. 명령줄에서 확인하는 방법PostgreSQL 클라이언트 도구를 통해 버전을 확인할 수도 있습니다.터미널 또는 명령 프롬프트에서 다음 명령어를 실행하세요:psql --version또는:psql -V출력 예시:psql (PostgreSQL) 15.23. PostgreSQL 서버 버전 확인 (pgAdmin)pgAdmin에서 연결된 서버의 속성을 확인하.. [ Linux ] top - CPU 사용량 확인하기 Linux에서 CPU 사용량을 확인하는 명령어는 다음과 같습니다: 1. toptop실시간으로 CPU, 메모리 사용량, 실행 중인 프로세스 정보를 확인할 수 있습니다.CPU 관련 주요 항목:%Cpu(s):us: 사용자 프로세스에 의한 CPU 사용률.sy: 시스템 프로세스에 의한 CPU 사용률.id: CPU 유휴 상태 (Idle).wa: I/O 대기 시간.프로세스별 %CPU 열: 각 프로세스가 사용하는 CPU 비율.실행 중:특정 프로세스를 검색하려면 Shift + f → %CPU를 기준으로 정렬 설정. 2. htophtophtop은 top의 대안으로, 더 직관적이고 색상이 추가된 인터페이스를 제공합니다.주요 기능:CPU 코어별 사용량을 시각적으로 확인 가능.프로세스 정렬 및 종료를 더 쉽게 수행.설치:sud.. [ Airflow ] operator - 여러 개의 operator를 생성해서 병렬 처리 확인하는 Dag 등록하기 Airflow에서 부하 테스트를 수행하려면 DAG(Directed Acyclic Graph)를 생성하여 여러 작업(Task)을 병렬로 실행하는 워크플로를 설계할 수 있습니다. LocalExecutor는 병렬 처리를 지원하므로 부하 테스트를 수행하기에 적합합니다. 아래는 Airflow DAG 예제입니다. 1. Airflow 설정 확인airflow.cfg 파일에서 executor 설정이 LocalExecutor로 설정되어 있는지 확인하세요: [core] executor = LocalExecutorparallelism, dag_concurrency, max_active_runs_per_dag, max_active_tasks_per_dag 등을 설정하여 부하를 조정할 수 있습니다. 2. DAG 파일 생성/d.. [ Airflow ] db init - PostgreSQL 과 함께 초기 설정하기 데이터 베이스 설치 후 airflow.cfg를 설정을 해야 합니다.그 후 db init를 통해서 데이터 베이스를 사용해야 합니다. 1. airflow.cfg 생성 시점airflow.cfg 파일은 Airflow를 처음 설치한 뒤 airflow CLI를 실행하면 생성됩니다. 즉, airflow db init 명령을 실행하기 전에 CLI를 한 번 실행하면 기본 설정 파일이 생성됩니다.예를 들어:airflow versionairflow info위 명령을 실행하면 Airflow 설치 디렉토리에 airflow.cfg 파일이 자동으로 생성됩니다. 2. PostgreSQL 설정 선행 가능 여부airflow db init 이전에 PostgreSQL과 같은 외부 데이터베이스 설정을 할 수 있습니다. 이를 위해 airflo.. [ Airflow ] schedule - 일정 주기로 dag 실행하기 Airflow에서 특정 주기로 DAG을 실행하려면 schedule_interval 속성에 적절한 값을 설정해야 합니다. 아래는 요청하신 주기를 설정하는 방법입니다: 1. 2분에 한 번 실행크론 표현식:schedule_interval="*/2 * * * *"*/2: 매 2분마다 실행.예: 00:02, 00:04, 00:06, ... 2. 10분에 한 번 실행크론 표현식:schedule_interval="*/10 * * * *"*/10: 매 10분마다 실행.예: 00:10, 00:20, 00:30, ... 3. 2시간에 한 번 실행크론 표현식:schedule_interval="0 */2 * * *"*/2: 매 2시간마다 실행.0: 매 2시간마다 정확히 정각(분 0)에 실행.예: 02:00, 04:00, 06.. [ Airflow ] schedule - 스케쥴러 시간 설정하기 Apache Airflow에서 스케줄러의 시간 설정은 주로 DAG의 schedule_interval 속성을 통해 이루어지며, 이를 통해 워크플로가 언제 실행될지 제어합니다. 시간 설정에 사용되는 주요 규칙은 다음과 같습니다:1. schedule_interval 설정 형식schedule_interval은 DAG 실행 주기를 정의하며, 다양한 형식을 지원합니다.a) 크론 표현식 (Cron Expression)* * * * * 형식의 문자열로 주기적 실행을 정의.각 필드는 다음과 같이 해석됩니다:분 (minute): 0–59시간 (hour): 0–23일 (day of month): 1–31월 (month): 1–12요일 (day of week): 0–7 (0과 7은 일요일)예: "0 9 * * *": 매일 오.. [ Linux ] rdp - GUI 방식으로 원격 컴퓨터에 접속하고 사용하기 RDP(Remote Desktop Protocol)는 원격 데스크톱 프로토콜의 약자로, Microsoft에서 개발한 프로토콜입니다. 이 프로토콜은 사용자가 네트워크를 통해 원격 컴퓨터에 연결하여 해당 컴퓨터의 GUI(그래픽 사용자 인터페이스)를 제어할 수 있도록 합니다. RDP는 주로 Windows 시스템에서 사용되지만, Linux에서도 적절한 클라이언트와 설정을 통해 사용할 수 있습니다. 1. RDP의 주요 특징그래픽 사용자 인터페이스 제공원격 컴퓨터의 화면을 볼 수 있고, 마우스와 키보드로 제어할 수 있습니다.보안RDP는 암호화된 연결을 제공하여 데이터 전송 중 보안을 유지합니다.멀티태스킹 지원여러 사용자 세션을 동시에 처리할 수 있습니다(서버 환경에 따라 다름).다양한 운영 체제 지원기본적으로 Wi.. [ Linux ] tar, gzip - 350m 단위로 파일 나눠서 압축하고 풀면서 합치기 tar와 gzip을 사용하여 파일을 압축하고, 파일 크기를 350MB 이하로 분할하려면 아래 단계를 따르세요.명령어 구조tar로 압축된 파일 생성tar 명령어로 파일이나 디렉터리를 하나의 아카이브 파일로 묶습니다.gzip으로 압축묶은 아카이브 파일을 gzip으로 압축합니다.split 명령어로 분할압축된 파일을 크기 제한(350MB)에 따라 분할합니다.명령어tar -cvzf - 파일_또는_디렉토리 | split -b 350m - output_prefix설명tar -cvzf - 파일_또는_디렉토리: -c: 새로운 아카이브 생성-v: 처리 과정 출력 (선택 사항)-z: gzip으로 압축-f -: 결과를 표준 출력(stdout)으로 보냄split -b 350m - output_prefix:-b 350m: 각 파.. 이전 1 ··· 5 6 7 8 9 10 11 ··· 82 다음