본문 바로가기
반응형

전체 글1063

PIP(Performance Improvement Plan)가 필요한 이유 PIP(Performance Improvement Plan)가 필요한 이유- 성과 개선 기회 제공: PIP는 성과가 부족한 직원에게 명확한 개선 목표와 기간, 필요한 지원을 제시해 재도약 기회를 제공한다[2][4].- 공정성·법적 위험 관리: 객관적인 개선 절차를 밟음으로써 졸속 해고(부당해고) 논란 없이 조직과 개인 모두에게 공정한 기회를 부여하며, 법적 분쟁에 대한 방어 수단이 된다[5][4].- 문서화와 평가 기준 마련: PIP는 구체적인 성과 부족 사유, 목표, 지원, 평가 기준 등 과정을 명확히 문서로 남겨 직원도 스스로 개선 경과를 확인할 수 있다[2][4].- 최소한의 지원 후 최종 조치: 개선에 실패할 경우 해고 등 인사조치에 정당성이 부여되어, 기업 입장에서 리스크를 줄일 수 있다.실제 .. 2025. 9. 4.
Rust - let 변수 선언 정리 let은 Rust에서 변수를 선언할 때 사용하는 키워드이다 let을 이용하면 값을 저장할 공간을 만드는 역할을 한다.let의 가장 기본적인 사용법에 대해서 이해해보자.1. 기본 사용법let x = 5;x라는 이름의 변수에 5를 저장한다.기본적으로 let으로 만든 변수는 불변(immutable)으로 값을 수정할 수 없다.2. 가변 변수 만들기 (mut 사용)let mut y = 10;y = 20; // 가능!mut 키워드를 붙이면 값을 변경할 수 있는 변수가 된다. 타입 명시하기let z: f64 = 3.14;타입을 f64와 같이 명시적으로 지정할 수도 있다구조 분해 (Destructuring)let (a, b) = (1, 2);튜플이나 구조체를 분해해서 여러 변수에 동시에 할당할 수 있다. 2025. 8. 26.
'GPT-5'를 코딩에 효과적으로 활용하기 위한 6가지 프롬프트 입력법을 공개 오픈AI는 개발자를 위한 '코딩 에이전트'로 설계된 'GPT-5'를 코딩에 효과적으로 활용하기 위한 6가지 프롬프트 입력법을 공개하였다. 오픈AI는 이전 모델과는 다른 방식으로 접근할 것을 권장하며, 모델이 능동적으로 업무를 처리하도록 만들면서도 불필요한 작업까지 처리하지 않도록 균형을 맞추는 것이 핵심이라고 설명한다. GPT-5가 다양한 도메인에서 뛰어난 성능을 발휘할 것으로 기대하지만, 모델 학습 및 실제 작업 적용 경험을 바탕으로 모델 출력의 품질을 극대화하기 위한 프롬프트 팁을 다룬다고 밝혔다. 특히 개발자를 염두에 두고 GPT-5를 개발하였으며, 에이전트 역할에 초점을 맞추었다고 전한다. 원본은 아래에서 확인이 가능하다.https://community.openai.com/t/prompting-t.. 2025. 8. 25.
내가 개발을 좋아하는 이유 개발이란 나에게 일종의 창작 활동이다더 나은 세상을 만들고 싶은 막연한 갈망이 코딩이라는 도구를 통해 구체적인 형태를 갖춘다. 무언가 새로운 걸 만들고 싶은 마음, 복잡한 문제를 끈질기게 파고들다가 드디어 해결책을 찾았을 때 느끼는 짜릿함, 그리고 그 결과물이 누군가에게 실제로 도움이 될 때의 뿌듯함이 나를 계속해서 개발에 빠져들게 한다.나는 개발을 하면서 수많은 시행착오를 겪지만, 그조차도 하나의 성장 과정이라 생각한다. 마치 정답이 없는 퍼즐을 맞추듯, 매번 새로운 실마리와 단서가 나를 이끈다. 이렇게 끊임없이 배우고, 고민하고, 시도하며 노력하는 순간들은 지루할 틈이 없다. 나만의 코드가 점점 정교해지고, 어제의 내가 오늘의 나보다 한 뼘 더 성장했다는 것을 느끼는 순간이 정말 소중하다.그리고 개발.. 2025. 8. 23.
LLM Benchmark 평가 방법 정리 📊 LLM Benchmark 정리표 (최신 기준)카테고리 Benchmark 이름 설명 평가 항목🧾 지시 이행 평가IFEval25종의 검증 가능한 지시문 기반 평가. 예: "400자 이상", "특정 키워드 포함"형식 준수, 제약 조건 이행, 구조화된 출력🧠 고난도 추론 평가BBH (BIG-Bench Hard)BIG-Bench 중 인간보다 성능 낮았던 23개 고난도 태스크고차원 추론, CoT 효과 분석🧮 수학 평가MATH (Minerva 버전)고등학교~대학 수준 수학 문제. 4-shot, 생성형 평가수학적 사고, 단계적 추론📚 과학 지식 평가GPQA (Graduate-Level Physics QA)대학원 수준의 물리학 문제. 0-shot, 선택형고급 물리 지식, 논리적 추론🧠 멀티스킬 평가MUSR.. 2025. 8. 18.
GPT-5 with github copilot 괜찮은가? 성능 및 반응 요약 GPT-5의 출시 이후 사람들의 반응은 극명하게 엇갈리고 있으며, 기술적 진보와 사용자 경험 사이의 긴장이 뚜렷하게 드러나고 있다.아래에 다양한 관점에서 정리해 보면 다음과 같다.필자도 실제 사용해보니, 윈드서프나 커서와 같이 문서 업데이틑 물론 테스트용 파일도 척척 생생해서 실행까지 해주는 부분이, 전반적인 코드 생성을 해내는 능력이 강해진것으로 보인다.어떻게 보면, 윈드서프나 커서에게 밀리던 1세대형태의 채팅을 벋어나 적극적으로 파일 생성과 코드 생성에 참여된 느낌이다.기존에 그만큼 강력해졌다고 생각이들고, 주요 강점은 아래와 같다.주요 포인트GPT-5의 정의와 구조트랜스포머 기반의 최신 모델로, 인간 수준의 텍스트 생성 능력을 갖춤.파라미터 수와 학습 데이터가 GPT-4보다 훨씬 많음.기억 기능세션.. 2025. 8. 12.
Huggingface - pipelines 설치 및 사용 Hugging Face 에서 제공하는 pipelines는 간편하게 AI를 무료로 이용할 수 있는 기능을 제공한다. 고수준의 라이브러리 단 몇줄로 AI를 활용할 수 있다. 여기에서는 어떻게 이용할 수 있는지 설치 부터 대표적인 이용 방법을 정리해본다.1. 라이브러리 설치!pip install -q --upgrade torch==2.5.1+cu124 torchvision==0.20.1+cu124 torchaudio==2.5.1+cu124 --index-url https://download.pytorch.org/whl/cu124!pip install -q --upgrade transformers==4.48.3 datasets==3.2.0 diffusers최신 버전의 PyTorch 및 관련 라이브러리 설치 (c.. 2025. 8. 6.
AI/LLM 모델 성능을 비교 평가하는 주요 리더보드 정리 다음은 AI/LLM 모델 성능을 비교하고 평가할 수 있는 주요 리더보드 사이트들이다.각 사이트는 다양한 벤치마크, 가격, 속도, 컨텍스트 길이 등을 기준으로 모델을 분석한다.🏆 1. LLM Stats특징: 실시간 업데이트되는 리더보드로, 모델별 성능, 가격, 컨텍스트 길이, 멀티모달 지원 여부 등을 비교 가능.벤치마크: GPQA, MMLU, HumanEval, DROP, SWE-Bench, MMMU 등.모델 예시: GPT-4.5, Claude 3.7, Gemini 2.5, Llama 4, DeepSeek 등.추가 기능: Playground에서 모델 직접 테스트 가능, API 가격 비교도 제공.📊 2. Artificial Analysis특징: 100개 이상의 모델을 다양한 기준(지능, 속도, 가격, 컨.. 2025. 8. 6.
원신6.0 - 달빛 징조? 능력 정보 원신의 '달빛 징조' (Lunar Phase 또는 Moonsign System)는 Nod Krai 지역 캐릭터들과 관련된 새로운 게임 시스템이다 [이전 대화]. 이 메커니즘은 플레이어들에게 많은 논의와 우려를 불러일으키고 있다.다음은 달빛 징조에 대한 자세한 설명이다:메커니즘의 핵심 및 목적파티에 노드크라이 캐릭터 3명이 있어야만 달빛 징조 메커니즘을 최대치로 발휘할 수 있다.이 메커니즘은 노드크라이 캐릭터의 유물 세트의 전체 능력치를 활성화하거나 , 캐릭터 스킬의 핵심적인 부분을 발동시키는 데 필수적이다.예를 들어, Flins의 패시브는 '승천하는 달(ascendant moon)' 상태에서만 발동하고, Lauma는 Nod Krai 캐릭터 수에 따라 3가지 다른 효과를 가진다.유출된 정보에 따르면, 달빛.. 2025. 8. 3.
반응형