GitHub Copilot CLI 정보
GitHub Copilot CLI는 터미널에서 채팅과 같은 인터페이스를 제공하여 컴퓨터에서 파일을 자동으로 생성하고 수정하고 명령을 실행할 수 있습니다. Copilot에게 Active Directory의 파일에 대한 어떤 작업이든 수행하도록 요청할 수 있습니다.
GitHub Copilot CLI는 버그 수정, 증분 새 기능 구현, 프로토타입 작성, 설명서, 코드베이스 유지 관리와 같은 작업을 포함하여 설명 및 구성에 따라 맞춤형 변경 내용을 생성할 수 있습니다.
작업을 수행하는 동안 Copilot 에이전트는 로컬 터미널 환경에 액세스하여 코드를 변경하고, 자동화된 테스트를 실행하고, 린터를 실행하고, 환경에서 사용 가능한 명령을 실행할 수 있습니다.
에이전트는 다양한 프로그래밍 언어에서 평가되었으며, 영어가 기본 지원 언어로 제공됩니다.
에이전트는 자연어 처리와 기계 학습의 조합을 사용하여 작업을 이해하고 코드베이스를 변경하여 작업을 완료합니다. 이 프로세스는 여러 단계로 나눌 수 있습니다.
입력 처리
사용자가 입력한 프롬프트는 다른 관련 컨텍스트 정보와 결합되어 프롬프트를 형성합니다. 해당 프롬프트는 처리를 위해 대규모 언어 모델로 전송됩니다. 입력은 일반 자연어, 코드 조각 또는 터미널 내 파일 참조 형태일 수 있습니다.
언어 모델 분석
그런 다음 프롬프트는 대량의 데이터 본문으로 학습된 신경망인 대규모 언어 모델을 통과합니다. 언어 모델은 입력 프롬프트를 분석하여 작업에 대한 에이전트 이유를 돕고 필요한 도구를 활용합니다.
응답 생성
언어 모델은 프롬프트에 대한 분석을 기반으로 응답을 생성합니다. 이 응답은 자연어 제안, 코드 제안, 파일 수정, 명령 실행 등의 형식을 가질 수 있습니다.
출력 형식
에이전트에서 생성된 응답의 형식이 지정되어 사용자에게 표시됩니다. GitHub Copilot CLI는 구문 강조 표시, 들여쓰기 및 기타 서식 지정 기능을 사용하여 생성된 응답에 명확성을 더할 수 있습니다.
에이전트는 작업을 완료하기 위해 로컬 환경에서 명령을 실행하고 파일 시스템에서 파일을 만들거나 편집하거나 삭제하려고 할 수도 있습니다.
응답이 대화형 창에 표시된 후, 에이전트에 피드백을 제공할 수 있습니다. 그러면 에이전트가 추가 분석을 위해 해당 피드백을 언어 모델에 다시 제출합니다. 에이전트가 피드백을 기반으로 변경을 완료하면 에이전트는 추가 응답을 반환합니다.
Copilot은 작업 해결을 위한 가장 관련성이 큰 솔루션을 제공하기 위한 것입니다. 그러나 항상 원하는 답변을 제공하지는 않을 수도 있습니다. 사용자는 Copilot에서 생성된 응답을 검토하고 검증하여 정확하고 적절한지 확인할 책임이 있습니다. 자세한 내용은 이 문서의 뒷부분에 있는 GitHub Copilot CLI의 결과 개선 섹션을 참조하세요.
GitHub Copilot CLI 사용 사례
다음을 포함하지만 이에 국한되지는 않는 다양한 시나리오에서 작업을 Copilot에 위임할 수 있습니다.
- 코드베이스 유지 관리: 보안 관련 수정, 종속성 업그레이드, 대상 리팩터링 처리
- 설명서: 새 설명서 업데이트 및 만들기
- 기능 개발: 증분 기능 요청 구현
- 테스트 적용 범위 개선: 품질 관리를 위한 추가 테스트 도구 모음 개발
- 새 프로젝트 프로토타입 생성: 새로운 개념 개발
- 환경 설정: 터미널에서 명령을 실행하여 기존 프로젝트에서 작업하기 위해 로컬 환경 설정
- 작업을 수행하기 위한 적합한 명령 찾기: Copilot이 사용자가 완료하려는 작업을 수행하기 위한 명령 제안 제공
- 알 수 없는 명령 설명: Copilot이 명령의 기능과 목적을 자연어로 설명 제공
GitHub Copilot CLI의 결과 개선
GitHub Copilot CLI는 다양한 작업을 지원할 수 있습니다. 더 나은 응답을 얻고, 에이전트의 일부 제한 사항을 해결하기 위해 채택할 수 있는 다양한 방법이 있습니다.
제한 사항에 대한 자세한 내용은 이 문서의 뒷부분에 있는 GitHub Copilot CLI의 제한 사항 섹션을 참조하세요.
작업의 범위가 올바른지 확인
GitHub Copilot CLI는 끌어오기 요청을 생성할 때 프롬프트를 키 컨텍스트로 활용합니다. 에이전트에 할당하는 프롬프트가 명확하고 범위가 잘 지정될수록 더 나은 결과를 얻을 수 있습니다. 이상적인 이슈는 다음 사항을 포함합니다.
- 해결해야 할 문제 또는 필요한 작업에 대한 명확한 설명
- 좋은 솔루션의 모습에 대한 완전한 수용 조건(예: 단위 테스트가 있어야 하나요?).
- 변경해야 하는 파일에 대한 힌트 또는 포인터.
추가 컨텍스트를 사용하여 환경 사용자 지정
GitHub Copilot CLI는 제안된 변경 내용을 생성할 때 프롬프트, 설명 및 리포지토리의 코드를 컨텍스트로 활용합니다. Copilot의 성능을 향상시키려면 에이전트가 프로젝트를 더 잘 이해하고 변경 내용을 빌드, 테스트, 검증하는 방법을 알 수 있도록 사용자 지정 Copilot 지침을 구현하는 것을 고려하세요. 자세한 내용은 GitHub Copilot을 사용하여 작업을 수행하는 방법에 대한 모범 사례의 "리포지토리에 사용자 지정 지침 추가"를 참조하세요.
GitHub Copilot CLI를 대체제가 아닌 도구로 사용
GitHub Copilot CLI는 코드 및 설명서를 생성하기 위한 강력한 도구가 될 수 있지만, 이것을 사람의 프로그래밍을 대체하는 것이 아니라 도구로 사용하는 것이 중요합니다. GitHub Copilot CLI에서 생성된 명령을 항상 검토하고 테스트하여 요구 사항을 충족하고 오류나 보안 문제가 없는지 확인해야 합니다.
보안 코딩 및 코드 검토 관행 사용
GitHub Copilot CLI가 구문상 유효한 코드를 생성할 수 있지만, 항상 안전하지는 않을 수 있습니다. 하드 코드된 암호나 SQL 삽입 취약점을 피하고 코드 검토 모범 사례를 따르는 등 항상 보안 코딩 모범 사례를 따라 에이전트의 제한 사항을 해결해야 합니다. 적합성을 보장하기 위한 예방 조치를 포함하여 독립적으로 시작되지 않은 자료를 사용하는 모든 코드와 마찬가지로 항상 동일한 예방 조치를 취해야 합니다. 여기에는 엄격한 테스트, IP 스캔, 보안 취약점 확인 등이 포함됩니다.
피드백 제공
GitHub Copilot CLI에서 이슈나 제한 사항이 발생하는 경우 /feedback
명령을 사용하여 피드백을 제공하는 것이 좋습니다.
GitHub Copilot CLI의 보안 조치
Copilot의 권한 제한
기본적으로 Copilot은 GitHub Copilot CLI가 호출된 디렉터리 및 그 디렉터리 아래의 파일 및 폴더에만 액세스할 수 있습니다. 이 디렉터리의 파일을 신뢰하는지 확인합니다. Copilot이 현재 디렉터리 외부의 파일에 액세스하려고 하면 권한을 요청합니다. 해당 디렉터리의 콘텐츠를 신뢰하는 경우에만 권한을 부여합니다.
Copilot은 파일을 수정하기 전에 권한을 요청합니다. 사용 권한을 부여하기 전에 올바른 파일을 수정하고 있는지 확인합니다.
Copilot은 위험할 수 있는 명령을 실행하기 전에도 권한을 요청합니다. 실행 권한을 부여하기 전에 이러한 명령을 주의 깊게 검토합니다.
GitHub Copilot CLI를 사용하는 동안 보안 사례에 대한 자세한 내용은 GitHub Copilot CLI 정보의 "보안 고려 사항"을 참조하세요.
GitHub Copilot CLI의 제한 사항
코드베이스 및 입력 데이터와 같은 요인에 따라 GitHub Copilot CLI를 사용할 때 성능 수준이 달라질 수 있습니다. 다음 정보는 GitHub Copilot CLI에 적용되는 시스템 제한 사항 및 성능에 대한 주요 개념을 이해하는 데 도움이 되도록 고안되었습니다.
제한된 범위
GitHub Copilot CLI에서 사용되는 언어 모델은 대규모 코드 본문에 대해 학습되었지만 범위가 제한되어 있어 특정 코드 구조나 모호한 프로그래밍 언어를 처리하지 못할 수도 있습니다. 각 언어의 경우 해당 언어에 대한 학습 데이터의 양과 다양성에 따라 제공되는 제안의 품질이 달라질 수 있습니다.
잠재적 편향성
대규모 언어 모델에서 수집된 GitHub Copilot CLI의 학습 데이터 및 컨텍스트에 사용되는 언어 모델에는 도구에서 영속될 수 있는 편견과 오류가 포함될 수 있습니다. 또한 GitHub Copilot CLI는 특정 프로그래밍 언어 또는 코딩 스타일에 편향되어 있어 차선책 또는 불완전한 제안으로 이어질 수 있습니다.
보안 위험
GitHub Copilot CLI는 리포지토리 내 이슈 또는 설명에 기반하여 코드 및 자연어를 생성하며, 여기서 신중하게 사용하지 않을 경우 중요한 정보 또는 취약성을 노출시킬 수 있습니다. 병합하기 전에 GitHub Copilot CLI에서 생성된 모든 출력을 주의 깊게 검토해야 합니다.
부정확한 코드
GitHub Copilot CLI는 유효해 보이지만 실제로는 의미론적 또는 구문론적으로 올바르지 않거나 개발자의 의도를 정확하게 반영하지 못할 수 있는 코드를 생성할 수 있습니다.
부정확한 코드의 위험을 줄이려면 특히 중요하거나 민감한 애플리케이션을 다룰 때 생성된 코드를 신중하게 검토하고 테스트해야 합니다. 또한 생성된 코드가 모범 사례 및 디자인 패턴을 준수하고 코드베이스의 전체 아키텍처 및 스타일에 맞는지 확인해야 합니다.
공용 코드
GitHub Copilot CLI는 "Suggestions matching public code" 정책이 "Block"으로 설정된 경우에도 공개적으로 사용할 수 있는 코드와 일치하거나 거의 일치하는 코드를 생성할 수 있습니다. 개별 구독자로 GitHub Copilot 정책 관리을(를) 참조하세요.
법률 및 규정 고려 사항
사용자는 모든 산업 또는 시나리오에서 사용하기에 적합하지 않을 수 있는 AI 서비스 및 솔루션을 사용할 때 잠재적인 특정 법률 및 규정 의무를 평가해야 합니다. 또한 AI 서비스 또는 솔루션은 해당 서비스 약관 및 관련 행동 강령에서 금지된 방식으로 설계되지 않았으며 사용할 수 없습니다.
명령 실행의 위험 관리 및 사용자 책임
GitHub Copilot CLI에 명령을 실행하도록 요청하거나 허용할 때는 추가적인 주의가 필요합니다. 특히 제안된 일부 명령이 잠재적으로 파괴적일 수 있다는 점에 더욱 주의해야 합니다. 파일 삭제 또는 하드 드라이브 형식 지정에 대한 명령이 발생할 수 있으며, 잘못 사용하면 문제가 발생할 수 있습니다. 이러한 명령은 특정 시나리오에서 필요할 수 있지만 이러한 명령을 수락하고 실행할 때는 주의해야 합니다.
또한 사용자는 궁극적으로 GitHub Copilot CLI에서 실행하는 명령에 대한 책임이 있습니다. GitHub Copilot CLI에서 생성된 명령을 사용할지 여부는 전적으로 사용자의 결정입니다. 유사 시 대기(fail-safe) 및 안전 메커니즘이 있음에도 불구하고 명령을 실행하는 것은 내재된 위험을 수반한다는 것을 이해해야 합니다. GitHub Copilot CLI는 강력한 도구 집합을 제공하지만 권장 사항에 주의하여 접근하고 해당 명령이 사용자의 의도 및 요구 사항에 부합하는지 확인해야 합니다.