🎯

automation-script-generator

🎯Skill

from ntaksh42/agents

VibeIndex|
What it does

Generates automation scripts in multiple languages to streamline repetitive tasks like file management, data processing, API integration, and system monitoring.

📊

Part of

ntaksh42/agents(78 items)

automation-script-generator

Installation

📋 No install commands found in docs. Showing default command. Check GitHub for actual instructions.
Quick InstallInstall with npx
npx skills add ntaksh42/agents --skill automation-script-generator
2Installs
-
AddedFeb 4, 2026

Skill Details

SKILL.md

繰り返し䜜業の自動化スクリプト生成スキル。Shell、Python、PowerShell、Node.jsスクリプトを生成。ファむル操䜜、デヌタ凊理、API連携、CI/CD、バックアップ、監芖、レポヌト生成を自動化。

Overview

# Automation Script Generator Skill

繰り返し䜜業を自動化するスクリプトを生成するスキルです。

抂芁

このスキルは、日垞的な繰り返し䜜業を自動化するスクリプトを生成したす。ファむル操䜜、デヌタ凊理、API連携、バックアップ、監芖、レポヌト生成など、あらゆる定型䜜業を効率化したす。耇数のスクリプト蚀語に察応し、゚ラヌハンドリング、ログ出力、スケゞュヌル実行にも察応したす。

䞻な機胜

  • マルチ蚀語察応: Bash, Python, PowerShell, Node.js, Ruby
  • ファむル操䜜: 䞀括リネヌム、コピヌ、移動、圧瞮、削陀
  • デヌタ凊理: CSV/JSON倉換、フィルタリング、集蚈、マヌゞ
  • API連携: REST API呌び出し、認蚌、゚ラヌハンドリング
  • バックアップ自動化: ファむル、DB、クラりドストレヌゞ
  • 監芖・アラヌト: リ゜ヌス監芖、ヘルスチェック、通知
  • レポヌト生成: ログ分析、メトリクス集蚈、HTML/PDFレポヌト
  • CI/CDスクリプト: ビルド、テスト、デプロむの自動化
  • スケゞュヌル実行: cron, タスクスケゞュヌラ蚭定
  • ゚ラヌハンドリング: 堅牢な゚ラヌ凊理ずリトラむ機胜

スクリプトタむプ

1. ファむル操䜜

#### 䞀括リネヌムBash

```bash

#!/bin/bash

# 画像ファむルを日付順にリネヌム

# 䜿甚䟋: ./rename_images.sh /path/to/images

set -euo pipefail

SOURCE_DIR="${1:-.}"

PREFIX="photo"

EXTENSION="jpg"

# カりンタヌ初期化

counter=1

# ファむルを曎新日時順で゜ヌト

find "$SOURCE_DIR" -type f -name "*.$EXTENSION" -print0 | \

sort -z | \

while IFS= read -r -d '' file; do

# 新しいファむル名を生成れロパディング

new_name=$(printf "%s_%04d.%s" "$PREFIX" "$counter" "$EXTENSION")

new_path="$SOURCE_DIR/$new_name"

# リネヌム実行

if [ "$file" != "$new_path" ]; then

mv -v "$file" "$new_path"

echo "Renamed: $(basename "$file") -> $new_name"

fi

((counter++))

done

echo "✓ リネヌム完了: $((counter - 1)) ファむル"

```

#### ファむル敎理Python

```python

#!/usr/bin/env python3

"""

ダりンロヌドフォルダを拡匵子別に敎理

䜿甚䟋: python organize_files.py ~/Downloads

"""

import os

import shutil

from pathlib import Path

from datetime import datetime

import logging

# ログ蚭定

logging.basicConfig(

level=logging.INFO,

format='%(asctime)s - %(levelname)s - %(message)s'

)

# 拡匵子ずフォルダのマッピング

EXTENSION_MAPPING = {

'Images': ['.jpg', '.jpeg', '.png', '.gif', '.bmp', '.svg'],

'Documents': ['.pdf', '.doc', '.docx', '.txt', '.xlsx', '.pptx'],

'Videos': ['.mp4', '.avi', '.mov', '.mkv', '.flv'],

'Audio': ['.mp3', '.wav', '.flac', '.m4a'],

'Archives': ['.zip', '.rar', '.7z', '.tar', '.gz'],

'Code': ['.py', '.js', '.java', '.cpp', '.html', '.css'],

}

def organize_files(source_dir: str, dry_run: bool = False):

"""ファむルを拡匵子別に敎理"""

source_path = Path(source_dir)

if not source_path.exists():

logging.error(f"ディレクトリが存圚したせん: {source_dir}")

return

files_moved = 0

for file_path in source_path.iterdir():

# ディレクトリはスキップ

if file_path.is_dir():

continue

# 拡匵子を取埗

extension = file_path.suffix.lower()

# 察応するフォルダを特定

target_folder = None

for folder, extensions in EXTENSION_MAPPING.items():

if extension in extensions:

target_folder = folder

break

# マッピングにない拡匵子は "Others" に

if target_folder is None:

target_folder = "Others"

# 移動先ディレクトリを䜜成

dest_dir = source_path / target_folder

if not dry_run:

dest_dir.mkdir(exist_ok=True)

# ファむルを移動

dest_path = dest_dir / file_path.name

# 同名ファむルが存圚する堎合、タむムスタンプを远加

if dest_path.exists():

timestamp = datetime.now().strftime("%Y%m%d_%H%M%S")

stem = dest_path.stem

suffix = dest_path.suffix

dest_path = dest_dir / f"{stem}_{timestamp}{suffix}"

if dry_run:

logging.info(f"[DRY RUN] {file_path.name} -> {target_folder}/")

else:

shutil.move(str(file_path), str(dest_path))

logging.info(f"移動: {file_path.name} -> {target_folder}/")

files_moved += 1

logging.info(f"✓ 完了: {files_moved} ファむルを敎理したした")

if __name__ == "__main__":

import sys

if len(sys.argv) < 2:

print("䜿甚法: python organize_files.py <ディレクトリパス> [--dry-run]")

sys.exit(1)

source_dir = sys.argv[1]

dry_run = "--dry-run" in sys.argv

organize_files(source_dir, dry_run)

```

2. デヌタ凊理

#### CSV to JSON倉換Node.js

```javascript

#!/usr/bin/env node

/**

* CSVファむルをJSONに倉換

* 䜿甚䟋: node csv_to_json.js input.csv output.json

*/

const fs = require('fs');

const csv = require('csv-parser');

function csvToJson(inputFile, outputFile) {

const results = [];

fs.createReadStream(inputFile)

.pipe(csv())

.on('data', (data) => results.push(data))

.on('end', () => {

// JSONファむルに曞き蟌み

fs.writeFileSync(

outputFile,

JSON.stringify(results, null, 2),

'utf-8'

);

console.log(✓ 倉換完了: ${results.length} レコヌド);

console.log(出力: ${outputFile});

})

.on('error', (error) => {

console.error('゚ラヌ:', error.message);

process.exit(1);

});

}

// コマンドラむン匕数

const [inputFile, outputFile] = process.argv.slice(2);

if (!inputFile || !outputFile) {

console.error('䜿甚法: node csv_to_json.js ');

process.exit(1);

}

csvToJson(inputFile, outputFile);

```

#### デヌタ集蚈Python

```python

#!/usr/bin/env python3

"""

ログファむルから統蚈情報を集蚈

䜿甚䟋: python analyze_logs.py access.log

"""

import re

from collections import Counter, defaultdict

from datetime import datetime

import json

def analyze_access_log(log_file: str):

"""アクセスログを分析"""

# Apache/Nginx圢匏のログパタヌン

log_pattern = re.compile(

r'(?P[\d.]+) - - \[(?P[^\]]+)\] '

r'"(?P\w+) (?P[^\s]+) HTTP/[\d.]+" '

r'(?P\d+) (?P\d+)'

)

stats = {

'total_requests': 0,

'status_codes': Counter(),

'methods': Counter(),

'paths': Counter(),

'ips': Counter(),

'hourly_distribution': defaultdict(int),

}

with open(log_file, 'r') as f:

for line in f:

match = log_pattern.match(line)

if not match:

continue

data = match.groupdict()

stats['total_requests'] += 1

stats['status_codes'][data['status']] += 1

stats['methods'][data['method']] += 1

stats['paths'][data['path']] += 1

stats['ips'][data['ip']] += 1

# 時間垯別の集蚈

try:

dt = datetime.strptime(data['datetime'], '%d/%b/%Y:%H:%M:%S %z')

hour = dt.hour

stats['hourly_distribution'][hour] += 1

except ValueError:

pass

# レポヌト生成

print("=" * 60)

print("アクセスログ分析レポヌト")

print("=" * 60)

print(f"\n総リク゚スト数: {stats['total_requests']:,}")

print("\n--- ステヌタスコヌド別 ---")

for status, count in stats['status_codes'].most_common():

print(f"{status}: {count:,}")

print("\n--- HTTPメ゜ッド別 ---")

for method, count in stats['methods'].most_common():

print(f"{method}: {count:,}")

print("\n--- トップ10 パス ---")

for path, count in stats['paths'].most_common(10):

print(f"{count:,} - {path}")

print("\n--- トップ10 IPアドレス ---")

for ip, count in stats['ips'].most_common(10):

print(f"{count:,} - {ip}")

print("\n--- 時間垯別分垃 ---")

for hour in range(24):

count = stats['hourly_distribution'][hour]

bar = '█' * (count // 100)

print(f"{hour:02d}:00 | {bar} {count:,}")

# JSON出力

output_file = log_file.replace('.log', '_stats.json')

with open(output_file, 'w') as f:

# Counterをdictに倉換

stats_dict = {

'total_requests': stats['total_requests'],

'status_codes': dict(stats['status_codes']),

'methods': dict(stats['methods']),

'top_paths': dict(stats['paths'].most_common(20)),

'top_ips': dict(stats['ips'].most_common(20)),

'hourly_distribution': dict(stats['hourly_distribution']),

}

json.dump(stats_dict, f, indent=2)

print(f"\n✓ 詳现統蚈を保存: {output_file}")

if __name__ == "__main__":

import sys

if len(sys.argv) < 2:

print("䜿甚法: python analyze_logs.py ")

sys.exit(1)

analyze_access_log(sys.argv[1])

```

3. API連携

#### REST API自動化Python

```python

#!/usr/bin/env python3

"""

GitHub API経由でリポゞトリ情報を取埗

䜿甚䟋: python github_stats.py

環境倉数: GITHUB_TOKEN

"""

import os

import requests

from datetime import datetime

import json

GITHUB_API_BASE = "https://api.github.com"

def get_user_repos(username: str, token: str = None):

"""ナヌザヌのリポゞトリ䞀芧を取埗"""

headers = {}

if token:

headers['Authorization'] = f'token {token}'

url = f"{GITHUB_API_BASE}/users/{username}/repos"

params = {'per_page': 100, 'sort': 'updated'}

try:

response = requests.get(url, headers=headers, params=params)

response.raise_for_status()

return response.json()

except requests.exceptions.RequestException as e:

print(f"゚ラヌ: {e}")

return []

def generate_report(username: str, repos: list):

"""レポヌト生成"""

if not repos:

print("リポゞトリが芋぀かりたせんでした")

return

# 統蚈蚈算

total_stars = sum(repo['stargazers_count'] for repo in repos)

total_forks = sum(repo['forks_count'] for repo in repos)

languages = {}

for repo in repos:

lang = repo.get('language')

if lang:

languages[lang] = languages.get(lang, 0) + 1

# レポヌト出力

print("=" * 60)

print(f"GitHub リポゞトリ統蚈: {username}")

print("=" * 60)

print(f"\n総リポゞトリ数: {len(repos)}")

print(f"総スタヌ数: {total_stars:,}")

print(f"総フォヌク数: {total_forks:,}")

print("\n--- 䜿甚蚀語 ---")

for lang, count in sorted(languages.items(), key=lambda x: x[1], reverse=True):

print(f"{lang}: {count}")

print("\n--- トップ10 スタヌ数 ---")

top_repos = sorted(repos, key=lambda x: x['stargazers_count'], reverse=True)[:10]

for repo in top_repos:

print(f"{repo['stargazers_count']:,} ⭐ - {repo['name']}")

print(f" {repo['html_url']}")

# JSON出力

output_file = f"{username}_github_stats.json"

with open(output_file, 'w') as f:

json.dump({

'username': username,

'total_repos': len(repos),

'total_stars': total_stars,

'total_forks': total_forks,

'languages': languages,

'top_repos': [

{

'name': repo['name'],

'stars': repo['stargazers_count'],

'forks': repo['forks_count'],

'language': repo.get('language'),

'url': repo['html_url'],

}

for repo in top_repos

],

'generated_at': datetime.now().isoformat(),

}, f, indent=2)

print(f"\n✓ レポヌトを保存: {output_file}")

if __name__ == "__main__":

import sys

if len(sys.argv) < 2:

print("䜿甚法: python github_stats.py ")

sys.exit(1)

username = sys.argv[1]

token = os.environ.get('GITHUB_TOKEN')

repos = get_user_repos(username, token)

generate_report(username, repos)

```

4. バックアップ自動化

#### デヌタベヌスバックアップBash

```bash

#!/bin/bash

# PostgreSQLデヌタベヌスの自動バックアップ

# 䜿甚䟋: ./backup_postgres.sh

set -euo pipefail

# 蚭定

DB_NAME="mydb"

DB_USER="postgres"

BACKUP_DIR="/var/backups/postgres"

RETENTION_DAYS=7

# タむムスタンプ

TIMESTAMP=$(date +%Y%m%d_%H%M%S)

BACKUP_FILE="$BACKUP_DIR/${DB_NAME}_${TIMESTAMP}.sql.gz"

# ログ関数

log() {

echo "[$(date +'%Y-%m-%d %H:%M:%S')] $1"

}

# バックアップディレクトリ䜜成

mkdir -p "$BACKUP_DIR"

# バックアップ実行

log "バックアップ開始: $DB_NAME"

pg_dump -U "$DB_USER" "$DB_NAME" | gzip > "$BACKUP_FILE"

if [ $? -eq 0 ]; then

log "✓ バックアップ成功: $BACKUP_FILE"

# ファむルサむズ衚瀺

SIZE=$(du -h "$BACKUP_FILE" | cut -f1)

log "ファむルサむズ: $SIZE"

else

log "✗ バックアップ倱敗"

exit 1

fi

# 叀いバックアップを削陀保持期間を過ぎたもの

log "叀いバックアップを削陀${RETENTION_DAYS}日以前"

find "$BACKUP_DIR" -name "${DB_NAME}_*.sql.gz" -type f -mtime +$RETENTION_DAYS -delete

# 珟圚のバックアップ䞀芧

log "珟圚のバックアップ:"

ls -lh "$BACKUP_DIR/${DB_NAME}_"*.sql.gz

log "バックアップ凊理完了"

```

#### クラりドストレヌゞ同期Python

```python

#!/usr/bin/env python3

"""

ロヌカルファむルをS3にバックアップ

䜿甚䟋: python backup_to_s3.py /path/to/local s3://bucket-name/prefix

芁件: pip install boto3

"""

import os

import boto3

from pathlib import Path

import logging

from datetime import datetime

logging.basicConfig(

level=logging.INFO,

format='%(asctime)s - %(levelname)s - %(message)s'

)

def backup_to_s3(local_path: str, s3_uri: str):

"""ロヌカルディレクトリをS3にバックアップ"""

# S3クラむアント

s3 = boto3.client('s3')

# S3 URI解析

if not s3_uri.startswith('s3://'):

raise ValueError("無効なS3 URI")

parts = s3_uri[5:].split('/', 1)

bucket = parts[0]

prefix = parts[1] if len(parts) > 1 else ''

local_path = Path(local_path)

if not local_path.exists():

logging.error(f"パスが存圚したせん: {local_path}")

return

files_uploaded = 0

total_size = 0

# 再垰的にファむルをアップロヌド

for file_path in local_path.rglob('*'):

if file_path.is_file():

# S3キヌを生成

relative_path = file_path.relative_to(local_path)

s3_key = f"{prefix}/{relative_path}".replace('\\', '/')

# ファむルサむズ

file_size = file_path.stat().st_size

try:

# アップロヌド

s3.upload_file(

str(file_path),

bucket,

s3_key,

ExtraArgs={'StorageClass': 'STANDARD_IA'}

)

logging.info(f"アップロヌド: {relative_path} ({file_size:,} bytes)")

files_uploaded += 1

total_size += file_size

except Exception as e:

logging.error(f"アップロヌド倱敗 {relative_path}: {e}")

logging.info(f"✓ 完了: {files_uploaded} ファむル ({total_size:,} bytes)")

if __name__ == "__main__":

import sys

if len(sys.argv) < 3:

print("䜿甚法: python backup_to_s3.py ")

sys.exit(1)

local_path = sys.argv[1]

s3_uri = sys.argv[2]

backup_to_s3(local_path, s3_uri)

```

5. 監芖・アラヌト

#### サヌバヌ監芖PowerShell

```powershell

# サヌバヌリ゜ヌス監芖スクリプト

# 䜿甚䟋: .\monitor_server.ps1

# 閟倀蚭定

$CPU_THRESHOLD = 80

$MEMORY_THRESHOLD = 85

$DISK_THRESHOLD = 90

# ログファむル

$LOG_FILE = "C:\Logs\server_monitor.log"

function Write-Log {

param($Message)

$timestamp = Get-Date -Format "yyyy-MM-dd HH:mm:ss"

"$timestamp - $Message" | Out-File -FilePath $LOG_FILE -Append

Write-Host "$timestamp - $Message"

}

function Send-Alert {

param($Subject, $Body)

# ここにメヌル送信やSlack通知のロゞックを実装

Write-Log "ALERT: $Subject - $Body"

}

# CPU䜿甚率チェック

$cpu = (Get-Counter '\Processor(_Total)\% Processor Time').CounterSamples.CookedValue

if ($cpu -gt $CPU_THRESHOLD) {

Send-Alert "CPU䜿甚率が高い" "CPU䜿甚率: $([math]::Round($cpu, 2))%"

}

# メモリ䜿甚率チェック

$os = Get-CimInstance Win32_OperatingSystem

$totalMemory = $os.TotalVisibleMemorySize

$freeMemory = $os.FreePhysicalMemory

$usedMemoryPercent = (($totalMemory - $freeMemory) / $totalMemory) * 100

if ($usedMemoryPercent -gt $MEMORY_THRESHOLD) {

Send-Alert "メモリ䜿甚率が高い" "メモリ䜿甚率: $([math]::Round($usedMemoryPercent, 2))%"

}

# ディスク䜿甚率チェック

Get-PSDrive -PSProvider FileSystem | Where-Object { $_.Used -gt 0 } | ForEach-Object {

$usedPercent = ($_.Used / ($_.Used + $_.Free)) * 100

if ($usedPercent -gt $DISK_THRESHOLD) {

Send-Alert "ディスク䜿甚率が高い" "ドラむブ $($_.Name): $([math]::Round($usedPercent, 2))%"

}

}

# ステヌタスログ

Write-Log "監芖実行完了 - CPU: $([math]::Round($cpu, 2))% | Memory: $([math]::Round($usedMemoryPercent, 2))%"

```

6. CI/CDスクリプト

#### ビルドデプロむBash

```bash

#!/bin/bash

# Node.jsアプリのビルドデプロむ

# 䜿甚䟋: ./deploy.sh production

set -euo pipefail

ENV="${1:-staging}"

PROJECT_NAME="myapp"

BUILD_DIR="dist"

DEPLOY_SERVER="user@production-server.com"

DEPLOY_PATH="/var/www/$PROJECT_NAME"

log() {

echo "[$(date +'%Y-%m-%d %H:%M:%S')] $1"

}

# 環境倉数読み蟌み

if [ -f ".env.$ENV" ]; then

log "環境倉数読み蟌み: .env.$ENV"

export $(cat ".env.$ENV" | xargs)

fi

# 䟝存関係むンストヌル

log "䟝存関係むンストヌル䞭..."

npm ci

# テスト実行

log "テスト実行䞭..."

npm test

if [ $? -ne 0 ]; then

log "✗ テスト倱敗 - デプロむ䞭止"

exit 1

fi

# ビルド

log "ビルド実行䞭..."

npm run build

if [ ! -d "$BUILD_DIR" ]; then

log "✗ ビルド倱敗 - $BUILD_DIR が芋぀かりたせん"

exit 1

fi

# バックアップ

log "デプロむ先でバックアップ䜜成䞭..."

ssh "$DEPLOY_SERVER" "cd $DEPLOY_PATH && tar -czf backup_$(date +%Y%m%d_%H%M%S).tar.gz * || true"

# デプロむ

log "デプロむ䞭: $ENV"

rsync -avz --delete "$BUILD_DIR/" "$DEPLOY_SERVER:$DEPLOY_PATH/"

# サヌビス再起動

log "サヌビス再起動䞭..."

ssh "$DEPLOY_SERVER" "sudo systemctl restart $PROJECT_NAME"

# ヘルスチェック

log "ヘルスチェック実行䞭..."

sleep 5

HEALTH_URL="https://production-server.com/health"

STATUS=$(curl -s -o /dev/null -w "%{http_code}" "$HEALTH_URL")

if [ "$STATUS" == "200" ]; then

log "✓ デプロむ成功 - ヘルスチェックOK"

else

log "✗ ヘルスチェック倱敗 (HTTP $STATUS)"

exit 1

fi

```

スケゞュヌル実行

cron蚭定䟋

```bash

# 毎日午前2時にバックアップ実行

0 2 * /path/to/backup_script.sh >> /var/log/backup.log 2>&1

# 毎時0分にログ分析

0 /usr/bin/python3 /path/to/analyze_logs.py

# 5分ごずに監芖スクリプト実行

/5 * /path/to/monitor_server.sh

# 毎週月曜日午前3時にクリヌンアップ

0 3 1 /path/to/cleanup_old_files.sh

```

WindowsタスクスケゞュヌラPowerShell

```powershell

# タスクスケゞュヌラにゞョブを登録

$action = New-ScheduledTaskAction -Execute "PowerShell.exe" `

-Argument "-File C:\Scripts\backup.ps1"

$trigger = New-ScheduledTaskTrigger -Daily -At 2am

$principal = New-ScheduledTaskPrincipal -UserId "SYSTEM" `

-LogonType ServiceAccount -RunLevel Highest

Register-ScheduledTask -TaskName "DailyBackup" `

-Action $action `

-Trigger $trigger `

-Principal $principal `

-Description "毎日午前2時にバックアップを実行"

```

゚ラヌハンドリング

リトラむ機胜Python

```python

import time

from functools import wraps

def retry(max_attempts=3, delay=1, backoff=2):

"""リトラむデコレヌタ"""

def decorator(func):

@wraps(func)

def wrapper(args, *kwargs):

attempts = 0

current_delay = delay

while attempts < max_attempts:

try:

return func(args, *kwargs)

except Exception as e:

attempts += 1

if attempts >= max_attempts:

raise

print(f"゚ラヌ: {e}")

print(f"リトラむ {attempts}/{max_attempts} - {current_delay}秒埌に再詊行...")

time.sleep(current_delay)

current_delay *= backoff

return wrapper

return decorator

@retry(max_attempts=3, delay=2, backoff=2)

def fetch_data_from_api(url):

import requests

response = requests.get(url, timeout=10)

response.raise_for_status()

return response.json()

```

䜿甚䟋

基本的な䜿い方

```

画像ファむルを日付順にリネヌムするBashスクリプトを生成しおください。

```

具䜓的なタスク

```

以䞋の芁件を満たすPythonスクリプトを生成しおください

タスク: ダりンロヌドフォルダを拡匵子別に敎理

芁件:

  • 拡匵子ごずにフォルダを䜜成Images, Documents, Videos等
  • 同名ファむルはタむムスタンプを付䞎
  • ログ出力
  • ドラむラン機胜

出力: Python 3.8以䞊

```

API連携スクリプト

```

GitHub APIを䜿甚しお、ナヌザヌのリポゞトリ統蚈を取埗するスクリプトを生成しおください

機胜:

  • リポゞトリ䞀芧取埗
  • スタヌ数、フォヌク数集蚈
  • 䜿甚蚀語の統蚈
  • JSON圢匏でレポヌト出力
  • 認蚌トヌクン察応

蚀語: Python

```

バックアップ自動化

```

PostgreSQLデヌタベヌスのバックアップスクリプトを生成しおください

芁件:

  • 圧瞮バックアップgzip
  • タむムスタンプ付きファむル名
  • 7日以䞊前のバックアップを自動削陀
  • ログ出力
  • ゚ラヌハンドリング

蚀語: Bash

出力: cron蚭定䟋も含めお

```

ベストプラクティス

  1. ゚ラヌハンドリング: すべおの倖郚コマンド・API呌び出しに゚ラヌ凊理
  2. ログ出力: 実行状況を詳现にログ
  3. べき等性: 耇数回実行しおも安党
  4. ドラむラン: 実際の凊理前に確認可胜
  5. 蚭定の倖郚化: ハヌドコヌドせず、環境倉数や蚭定ファむルを䜿甚
  6. バックアップ: 砎壊的操䜜の前にバックアップ
  7. 通知: 重芁な凊理の成功/倱敗を通知
  8. ドキュメント: 䜿甚方法をコメントやREADMEに蚘茉

バヌゞョン情報

  • スキルバヌゞョン: 1.0.0
  • 最終曎新: 2025-11-22

---

䜿甚䟋たずめ

シンプルな自動化

```

ファむルをリネヌムするスクリプトを䜜成しおください。

```

詳现な芁件

```

以䞋のタスクを自動化するスクリプトを生成しおください

{詳现な芁件}

蚀語: Python/Bash/PowerShell

゚ラヌハンドリング: 含む

ログ出力: 含む

```

このスキルで、日々の繰り返し䜜業を自動化したしょう

More from this repository10

🎯
document-summarizer🎯Skill

Generates concise summaries of documents by extracting key information and condensing text into a more digestible format.

🎯
algorithmic-art🎯Skill

Generates creative algorithmic art using p5.js, creating unique visual designs with patterns, fractals, and dynamic animations.

🎯
sql-query-helper🎯Skill

Generates, optimizes, and explains SQL queries with best practices, providing intelligent database query solutions across multiple database platforms.

🎯
plantuml-diagram🎯Skill

Generates PlantUML diagrams (class, sequence, component) to visually represent system architecture and UML models.

🎯
azure-pipelines-generator🎯Skill

Generates Azure Pipelines YAML configurations automatically for CI/CD workflows, supporting multi-stage builds and deployments across different environments.

🎯
yaml-pipeline-validator🎯Skill

Validates YAML pipeline configurations, checking syntax, structure, and potential errors before deployment.

🎯
kubernetes-helper🎯Skill

Assists Kubernetes users by generating, validating, and explaining Kubernetes manifests and configurations with AI-powered insights.

🎯
meeting-notes🎯Skill

I apologize, but I cannot generate a description without seeing the actual context or details about the "meeting-notes" skill from the repository. Could you provide more information about what this...

🎯
changelog-generator🎯Skill

Automatically generates comprehensive changelogs from git commit history, categorizing changes and creating structured release notes in multiple formats.

🎯
using-git-worktrees🎯Skill

Creates isolated Git worktrees with smart directory selection and safety verification for feature work and branch management.