初めてScikit-learnで機械学習を動かした時の感動
2019年の夏、私は壁にぶち当たってた。Web制作の副業で月15万円くらいは稼いでたんだけど、「このままじゃヤバい」って危機感があった。コーディングだけだと単価の上限が見えてきて、もっとスキルの幅を広げたかった。
で、たまたま飲み会で知り合ったデータサイエンティストが言った一言。
「Pythonできるなら、Scikit-learnで機械学習やってみたら?簡単だよ」
半信半疑だった。機械学習って、めちゃくちゃ難しそうなイメージしかなかった。微分積分とか線形代数とか、大学で挫折した数学が必要そうで。
でも試しにやってみたら、驚いた。たった10行のコードで、データから予測モデルが作れちゃった。「これ、マジで動いてる…」って画面を何度も見直した。

あれから5年。今はWeb制作と機械学習案件の二刀流で、月の副業収入が40万円を超えてる。Scikit-learnのおかげで、単価が倍以上になった。
この記事では、「機械学習って難しそう」「Scikit-learnって何?」って思ってる人に向けて、実践的な使い方と副業での稼ぎ方を話していく。
正直、Scikit-learnは機械学習の入門に最適すぎる。複雑な数学を理解してなくても、とりあえず動かせる。で、動かしながら理解していける。私がメンターしてる受講生も、3ヶ月で機械学習案件を取れるようになってる人が何人もいる。
なぜScikit-learnが機械学習の入門に最適なのか
コードがシンプルすぎる
Scikit-learnの最大の魅力は、コードの書きやすさ。他の機械学習ライブラリと比べて、圧倒的にシンプル。
例えば、予測モデルを作るコード。
from sklearn.linear_model import LinearRegression
# モデルの作成
model = LinearRegression()
# 学習
model.fit(X_train, y_train)
# 予測
predictions = model.predict(X_test)
これだけ。マジで。学習も予測も、たった1行ずつ。
最初にこれを見た時、「え、これで終わり?」って思った。もっと複雑なコードを書く覚悟してたから。
で、アルゴリズムを変えたい時も簡単。LinearRegressionをRandomForestRegressorに変えるだけ。
from sklearn.ensemble import RandomForestRegressor
model = RandomForestRegressor()
model.fit(X_train, y_train)
predictions = model.predict(X_test)
インポート文と1行目を変えるだけで、全く違うアルゴリズムが使える。この統一されたAPIが、Scikit-learnの強み。
無料で使える最強ライブラリ
Scikit-learnはオープンソース。つまり、完全無料。商用利用もOK。
これ、副業する側からするとめちゃくちゃありがたい。有料ツールだと、ライセンス費用が発生して利益が減る。でもScikit-learnなら、その心配がない。
しかも、開発が活発。世界中のエンジニアが改良し続けてる。バグ修正も早い。公式ドキュメントも充実してて、英語が苦手でも何とかなる。
私が使い始めた2019年から今まで、一度も「機能が足りない」って困ったことがない。回帰、分類、クラスタリング、次元削減…必要な機能は全部ある。
Google Colabですぐ試せる
環境構築で挫折する人、めちゃくちゃ多い。Pythonのインストールでつまずいて、機械学習に辿り着く前に諦めちゃう。
でもGoogle Colabを使えば、ブラウザだけでScikit-learnが動く。Pythonのインストールも、Scikit-learnのインストールも不要。Google Colabには最初から入ってる。
Googleアカウントさえあれば、今すぐ機械学習が始められる。これ、初心者にとって超重要。
私がメンターやってる時も、最初は全員Google Colabから始めさせてる。「とりあえず動かしてみようぜ」って。動く楽しさを知ってから、理論を学ぶ方が絶対に挫折しにくい。

チートシートで迷わない
Scikit-learnには、公式のチートシート(早見表)がある。これが超便利。
「どのアルゴリズムを使えばいいかわからない」って時、チートシートを見ながら質問に答えていくと、最適なアルゴリズムが見つかる。
例:
- データは50サンプル以上ある? → Yes
- カテゴリを予測したい? → Yes
- ラベル付きデータがある? → Yes
→ LinearSVC(サポートベクターマシン)がオススメ
みたいな感じ。全部のアルゴリズムを覚えてなくても、チートシートがあれば何とかなる。
初心者の頃、このチートシートに何度も助けられた。「わからない時はチートシートを見る」が私の定番だった。
Scikit-learnで機械学習を始める準備
Pythonの基礎は必要(でも少しでOK)
Scikit-learnを使う前に、Pythonの基礎は押さえておきたい。でも、全部マスターする必要はない。
必要な知識:
- 変数と代入
- リストと辞書
- if文とfor文
- 関数の定義
これだけ。クラスとかオブジェクト指向とか、難しいことは後回しでいい。
Progateで2~3週間勉強すれば、十分。私の受講生も、Python完全初心者から始めて、1ヶ月でScikit-learnを動かしてる。
逆に、Web制作やってる人なら、JavaScriptの知識がそのまま使える。変数、配列、条件分岐…基本は同じ。Pythonの文法さえ覚えれば、すぐ書ける。
インストール方法(3パターン)
Scikit-learnのインストール方法は3つある。
パターン1:Google Colab(一番簡単)
インストール不要。Googleアカウントでログインして、新しいノートブックを開くだけ。
# 既にインストールされてるので、すぐ使える
import sklearn
print(sklearn.__version__)
初心者はこれで始めるのが一番。
パターン2:pip(標準的)
ターミナル(Windowsならコマンドプロンプト)で実行。
pip install scikit-learn
これだけ。依存ライブラリ(NumPy、SciPy)も一緒にインストールされる。
パターン3:Anaconda(データサイエンス向け)
Anacondaには、最初からScikit-learnが入ってる。インストール不要。
データサイエンスを本格的にやるなら、Anacondaが便利。でも初心者には少し重い。
私は最初、Google Colabで始めた。で、慣れてきたらローカル環境にpipでインストールした。今はVSCodeで書いてる。
一緒に使うライブラリ
Scikit-learnは、他のライブラリと組み合わせて使うことが多い。
必須ライブラリ:
- NumPy:数値計算(配列操作)
- Pandas:データ操作(CSVの読み込みなど)
- Matplotlib:グラフ描画
あると便利:
- Seaborn:きれいなグラフ
- Jupyter Notebook:対話的にコードを実行
Google Colabなら、これ全部最初から入ってる。だから環境構築で悩まなくていい。
Scikit-learnの基本的な使い方
機械学習の流れ(5ステップ)
Scikit-learnを使った機械学習は、基本的にこの流れ。
- データの準備
- データの分割(訓練用とテスト用)
- モデルの選択
- 学習(fit)
- 予測(predict)
この5ステップを覚えれば、どんなアルゴリズムでも同じように使える。
実際のコード例で見ていこう。
実践:アイリスデータセットで分類
Scikit-learnには、練習用のデータセットが最初から入ってる。その中で一番有名なのが、アイリス(あやめ)データセット。
花の4つの特徴(がく片の長さ・幅、花びらの長さ・幅)から、3種類の品種を予測する。
# ライブラリのインポート
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import accuracy_score
# 1. データの準備
iris = load_iris()
X = iris.data # 特徴量(4つの数値)
y = iris.target # ラベル(3種類の品種)
# 2. データの分割(80%を訓練、20%をテスト)
X_train, X_test, y_train, y_test = train_test_split(
X, y, test_size=0.2, random_state=42
)
# 3. モデルの選択
model = LogisticRegression(max_iter=200)
# 4. 学習
model.fit(X_train, y_train)
# 5. 予測
y_pred = model.predict(X_test)
# 精度を確認
accuracy = accuracy_score(y_test, y_pred)
print(f'精度: {accuracy:.2f}') # 例: 精度: 1.00
このコード、たった20行くらい。でも、ちゃんとした機械学習モデルができてる。
初めて動かした時、「え、これで終わり?」って思った。もっと複雑なコードを想像してたから。

アルゴリズムを変えてみる
さっきのコードで、LogisticRegressionの部分を変えるだけで、違うアルゴリズムが使える。
ランダムフォレストに変更:
from sklearn.ensemble import RandomForestClassifier
model = RandomForestClassifier()
model.fit(X_train, y_train)
y_pred = model.predict(X_test)
サポートベクターマシン(SVM)に変更:
from sklearn.svm import SVC
model = SVC()
model.fit(X_train, y_train)
y_pred = model.predict(X_test)
インポート文とモデル作成の1行を変えるだけ。あとは全く同じ。この統一感が、Scikit-learnの最大の強み。
色々試して、どのアルゴリズムが一番精度が高いか比較できる。これ、実務でもよくやる作業。
回帰(数値予測)もできる
分類(カテゴリ予測)だけじゃなく、回帰(数値予測)もできる。
例:ボストンの住宅価格を予測。
from sklearn.datasets import fetch_california_housing
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error
import numpy as np
# データ読み込み
housing = fetch_california_housing()
X = housing.data
y = housing.target
# 訓練とテストに分割
X_train, X_test, y_train, y_test = train_test_split(
X, y, test_size=0.2, random_state=42
)
# 線形回帰モデル
model = LinearRegression()
model.fit(X_train, y_train)
# 予測
y_pred = model.predict(X_test)
# 評価(RMSE: 二乗平均平方根誤差)
rmse = np.sqrt(mean_squared_error(y_test, y_pred))
print(f'RMSE: {rmse:.2f}')
分類と回帰、コードの構造は全く同じ。モデルと評価指標を変えるだけ。
この統一感のおかげで、一度覚えれば色々応用できる。
データ前処理の基本
欠損値の処理
実際の案件で扱うデータって、ほぼ必ず欠損値(抜けてる値)がある。これをそのまま機械学習モデルに入れると、エラーになる。
Scikit-learnには、欠損値を補完する機能がある。
from sklearn.impute import SimpleImputer
import numpy as np
# 欠損値を含むデータ(NaNは欠損値)
X = np.array([
[1, 2],
[np.nan, 3],
[7, 6]
])
# 平均値で補完
imputer = SimpleImputer(strategy='mean')
X_filled = imputer.fit_transform(X)
print(X_filled)
# [[1. 2.]
# [4. 3.] # NaNが平均値4で補完されてる
# [7. 6.]]
strategyには、以下が指定できる:
'mean':平均値'median':中央値'most_frequent':最頻値'constant':指定した値
これ、実務でめちゃくちゃ使う。データが汚い案件、多いから。
標準化(スケーリング)
データの特徴量が違うスケールだと、機械学習モデルが上手く学習できないことがある。
例えば、「年齢(0~100)」と「年収(200~2000万円)」を一緒に使うと、年収の方が影響が大きくなりすぎる。
これを解決するのが、標準化。
from sklearn.preprocessing import StandardScaler
# データ
X = np.array([
[0, 0],
[0, 0],
[1, 1],
[1, 1]
])
# 標準化(平均0、標準偏差1に変換)
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)
print(X_scaled)
# [[-1. -1.]
# [-1. -1.]
# [ 1. 1.]
# [ 1. 1.]]
全ての特徴量が、同じスケールになる。これで、モデルが公平に学習できる。
SVMやロジスティック回帰を使う時は、ほぼ必須。ランダムフォレストや決定木は、標準化しなくても動く。
カテゴリデータの数値化
機械学習モデルは、数値しか扱えない。「東京」「大阪」「福岡」みたいな文字列は、そのまま使えない。
数値に変換する方法がいくつかある。
ラベルエンコーディング:
from sklearn.preprocessing import LabelEncoder
# カテゴリデータ
cities = ['東京', '大阪', '福岡', '東京', '大阪']
# 数値に変換
encoder = LabelEncoder()
cities_encoded = encoder.fit_transform(cities)
print(cities_encoded)
# [0 1 2 0 1] # 東京=0、大阪=1、福岡=2
シンプルだけど、「東京<大阪<福岡」みたいな順序関係が勝手に生まれちゃう問題がある。
ワンホットエンコーディング:
from sklearn.preprocessing import OneHotEncoder
cities = [['東京'], ['大阪'], ['福岡'], ['東京']]
encoder = OneHotEncoder()
cities_onehot = encoder.fit_transform(cities).toarray()
print(cities_onehot)
# [[0. 1. 0.] # 東京
# [1. 0. 0.] # 大阪
# [0. 0. 1.] # 福岡
# [0. 1. 0.]] # 東京
各カテゴリを、別の特徴量として扱う。順序関係の問題がないから、こっちの方が正確。
ただし、カテゴリが多いと特徴量が爆発的に増える。100種類のカテゴリがあったら、100個の特徴量になる。
実務では、状況に応じて使い分ける。
Scikit-learnを使った副業案件の実態
機械学習案件の単価と内容
Scikit-learnが使えるようになると、副業の単価が跳ね上がる。実際の相場を見てみよう。
時給換算:
- 初心者:3,000~5,000円
- 中級者:5,000~8,000円
- 上級者:8,000~15,000円
Web制作(時給2,000~4,000円)と比べて、明らかに高い。
案件の種類と単価:
データ分析・予測モデル作成
- 予算:10~30万円
- 納期:2~4週間
- 内容:売上予測、需要予測、顧客分析など
- 使うライブラリ:Pandas、Scikit-learn、Matplotlib
私が最初に取った案件がこれ。EC企業の売上予測モデルを作って、15万円もらった。作業時間は20時間くらい。時給7,500円。
機械学習モデルの実装・改善
- 予算:30~80万円
- 納期:1~2ヶ月
- 内容:既存モデルの精度改善、新規モデル開発
- 使うライブラリ:Scikit-learn、XGBoost、LightGBM
ある程度経験を積んだら、こういう案件が取れる。単価が高い分、求められるレベルも高い。

データ前処理・特徴量エンジニアリング
- 予算:8~20万円
- 納期:1~2週間
- 内容:生データの整形、特徴量の作成
- 使うライブラリ:Pandas、Scikit-learn
地味だけど、需要は多い。データがきれいじゃない案件、めちゃくちゃ多いから。
私は最初、この辺の案件から始めた。機械学習の知識が浅くても、Pandasとデータ処理の知識があればできる。
案件を取るための学習ロードマップ
じゃあ、どうやって案件を取れるレベルまで行くか。私が受講生に教えてるロードマップを紹介する。
Phase 1:基礎学習(1~2ヶ月)
目標:Scikit-learnの基本を理解する
やること:
- Pythonの基礎(変数、リスト、関数)
- NumPy、Pandasの基本
- Scikit-learnの基本的な使い方
- 教師あり学習(分類・回帰)の理解
学習リソース:
- Progate(Python、データ分析コース)
- Kaggle Learn(無料、実践的)
- YouTube(codexa、キノコード)
- Udemy(セール時に1,500円)
この段階で、簡単なデータ分析案件なら取れる。
Phase 2:実践(1~2ヶ月)
目標:ポートフォリオを作る
やること:
- Kaggleのコンペに参加
- 公開データセットで分析
- GitHubに公開
- ブログやQiitaで解説記事を書く
ポートフォリオ例:
- タイタニック生存者予測(Kaggle定番)
- 住宅価格予測
- 顧客離脱予測
これがあると、提案の採用率が3倍になる。マジで。
私もポートフォリオを作ってから、案件が急に取れるようになった。「実績ゼロ」と「ポートフォリオあり」じゃ、全然違う。
Phase 3:案件獲得(3ヶ月目~)
目標:最初の案件を取る
やること:
- クラウドワークス、ランサーズに登録
- 初心者向け案件に提案(10~15件)
- ポートフォリオを見せる
- 最初は相場より安くてもOK
最初の案件を取るまでが一番しんどい。でも、1件取れたら、あとは楽。実績ができるから。
私は30件提案して、3件採用された。採用率10%。でも、これで実績ができて、次からはもっと楽になった。
提案文の書き方(実例)
案件を取るには、提案文が超重要。これで採用率が3倍変わる。
悪い提案文:
はじめまして。Pythonとscikit-learnが使えます。
機械学習の経験があります。よろしくお願いします。
これ、絶対採用されない。具体性がゼロ。
良い提案文:
お世話になります。貴社の売上予測モデル構築の件、拝見いたしました。
【提案内容】
・過去3年の売上データを用いた時系列分析
・季節性、トレンドを考慮した予測モデル構築
・Scikit-learnとXGBoostを用いた精度比較
・予測精度の評価レポート(RMSE、MAE)
【使用技術】
Python(Pandas、NumPy、Scikit-learn、XGBoost)
Jupyter Notebook、Matplotlib
【過去実績】
・EC企業の売上予測モデル構築(予測精度:RMSE 0.15)
・不動産価格予測(R2スコア:0.82)
※ポートフォリオ:[GitHubリンク]
【スケジュール】
要件確認:2日
データ分析・前処理:3日
モデル構築・評価:5日
レポート作成:2日
合計:2週間以内に納品可能
不明点があれば、オンライン打ち合わせで詳しくご説明いたします。
ご検討のほど、よろしくお願いいたします。
この提案文で、採用率が10%から30%に上がった。具体的に「何ができるか」「どうやるか」を書くのがポイント。
失敗談:初案件で大失敗した話
最初の案件、正直めちゃくちゃ苦労した。
クライアントから「簡単なデータ分析」って言われて、「余裕だろ」って思ってた。でも実際にデータが送られてきたら、欠損値だらけ。しかも、データの意味がわからない列が10個くらいあった。
で、クライアントに質問したら、「それはそっちで判断してください」って返答。え、そんなん無理やん…
結局、想定の3倍の時間がかかった。10時間で終わる予定が、30時間。時給換算したら、2,500円。コンビニバイトより低い。
この失敗から学んだこと:
- 要件は事前に徹底的に確認する
- データのサンプルを先にもらう
- わからないことは早めに聞く
- 初案件は納期に余裕を持たせる
今は、契約前に必ずデータサンプルを見せてもらう。で、不明点を全部潰してから契約する。これで失敗がなくなった。
よくある質問(FAQ)
Q1: Scikit-learnの学習に数学は必要ですか?
結論から言うと、副業レベルなら高校数学で十分。微積分とか線形代数とか、難しい数学は後回しでいい。
必要な数学:
- 平均、中央値、標準偏差
- 相関係数の意味
- 基本的なグラフの読み方
これだけで、初心者向け案件の8割は対応できる。
私も数学が得意じゃなかった。でも、使いながら少しずつ理解していった。「理論を完璧にしてから実践」じゃなく、「実践しながら理論を学ぶ」方が早い。
Q2: TensorFlowやPyTorchとの違いは?
Scikit-learn、TensorFlow、PyTorchは、使う場面が違う。
- Scikit-learn:統計的機械学習(回帰、分類、クラスタリング)
- TensorFlow/PyTorch:ディープラーニング(画像認識、自然言語処理)
ディープラーニングが必要ない案件なら、Scikit-learnの方が圧倒的に簡単。コードもシンプルだし、学習時間も短い。
実務だと、Scikit-learnで対応できる案件の方が多い。画像認識とか、ディープラーニングが必要な案件はそんなに多くない。
まずはScikit-learnをマスターして、必要になったらTensorFlowやPyTorchを学ぶ。これが効率的。

Q3: どれくらいで案件が取れるようになりますか?
人によるけど、平均的には:
- 学習開始から初案件まで:3~6ヶ月
- 月5万円達成:6~9ヶ月
- 月10万円達成:9~12ヶ月
- 月20万円以上:1年~1年半
これは、毎日2~3時間学習した場合。
私の場合:
- 学習開始:2019年7月
- 初案件:2019年10月(3ヶ月)
- 月10万円:2020年1月(6ヶ月)
- 月30万円:2020年7月(12ヶ月)
ただし、これはWeb制作の経験があったから。プログラミング完全未経験だと、もう少し時間がかかると思う。
完璧主義にならないことが大事。「まだ完璧じゃない」って思ってると、いつまで経っても案件に応募できない。60%できたら、もう応募していい。案件をこなしながら学ぶ方が、圧倒的に成長が早い。
Q4: Kaggleは必要ですか?
必須じゃないけど、やっておいた方がいい。特に、コンペに参加すること。
Kaggleのメリット:
- 実際のデータで練習できる
- 他の人のコードが見られる
- ポートフォリオになる
- 最新技術が学べる
私は最初、Kaggleを避けてた。「コンペで勝つとか無理」って思ってたから。
でも参加してみたら、別に勝つ必要ない。練習の場として使えばいい。上位10%に入れなくても、十分勉強になる。
タイタニック生存者予測とか、初心者向けのコンペがある。まずはそこから始めるといい。
Q5: 独学でも稼げますか? スクールは必要?
独学でも全然いける。私も完全独学。スクールは行ってない。
独学のメリット:
- お金がかからない(無料リソースが豊富)
- 自分のペースで学べる
- 調べる力が付く
独学のデメリット:
- 質問できる人がいない
- モチベーション維持が難しい
- 正しい学習順序がわからない
スクールのメリット:
- 質問できる
- カリキュラムがある
- 同じ目標の仲間ができる
スクールのデメリット:
- 費用が高い(30~50万円)
- 時間が拘束される
個人的には、独学で始めて、詰まったらメンターを探すのがオススメ。メンターサービス(MENTAとか)なら、月1~2万円で質問し放題。
私もメンターを月1回だけ雇って、わからないことをまとめて質問してた。これで月5,000円。スクールより圧倒的に安い。
Q6: Web制作と機械学習、どっちが稼ぎやすい?
短期的にはWeb制作、長期的には機械学習。
Web制作のメリット:
- 学習期間が短い(3~6ヶ月)
- 案件が多い
- 初心者向け案件がある
機械学習のメリット:
- 単価が高い(1.5~2倍)
- 需要が増え続けてる
- 将来性がある
私の戦略は、Web制作で稼ぎながら機械学習を学ぶ。両方できると、案件の幅が広がる。
例えば、「Webアプリに機械学習を組み込む」案件。これ、Web制作だけの人にも、機械学習だけの人にも取れない。両方できる人だけが取れる高単価案件。
Q7: 副業禁止の会社でもバレない?
正直、リスクはある。でも、バレにくくする方法はある。
バレる原因:
- 住民税の増加
- 社内での噂
- SNSでの発信
対策:
- 確定申告で住民税を「普通徴収」にする
- 社内の人に言わない
- SNSは匿名アカウントを使う
私の場合、会社には副業のことを全く話してない。SNSも匿名。住民税は普通徴収にしてる。今のところ、バレてない。
ただし、副業禁止の会社で副業がバレると、最悪解雇もありえる。自己責任で。
個人的には、会社に相談して許可をもらう方が安全。最近は副業OKの会社も増えてるから、意外と許可が出るかも。

Q8: 英語ができないと厳しい?
公式ドキュメントは英語だけど、Google翻訳で何とかなる。
私も英語が得意じゃない。TOEICは500点くらい。でも、問題なくScikit-learnを使ってる。
必要な英語:
- エラーメッセージを読む
- 公式ドキュメントを読む
- Stack Overflowで検索
全部Google翻訳に突っ込めば、8割は理解できる。DeepLを使えば、もっと正確。
最近は日本語の解説記事も増えてる。Qiita、Zenn、個人ブログ…探せば大抵見つかる。
英語ができるに越したことはないけど、必須じゃない。
まとめ:今日から始めるScikit-learn
ここまで読んでくれてありがとう。Scikit-learnの使い方と副業での稼ぎ方、理解できたと思う。
最後にもう一度、重要なポイントをまとめる:
Scikit-learnが最適な理由
- コードがシンプル(たった数行で機械学習)
- 完全無料(商用利用もOK)
- Google Colabですぐ試せる
- チートシートで迷わない
学習ロードマップ
- Phase 1:基礎学習(1~2ヶ月)
- Phase 2:実践・ポートフォリオ作成(1~2ヶ月)
- Phase 3:案件獲得(3ヶ月目~)
副業の実態
- 時給:3,000~15,000円
- 月収:10~40万円(経験による)
- 初案件までの期間:3~6ヶ月
成功のコツ
- 完璧主義にならない(60%できたら応募)
- ポートフォリオを作る(採用率3倍)
- 提案文に具体性を持たせる
- 失敗から学ぶ(初案件は必ず苦労する)
もしあなたが「副業で収入を増やしたい」「プログラミングスキルを活かしたい」って思ってるなら、Scikit-learnは最高の選択肢。
Web制作より単価が高い。需要も増え続けてる。そして、何より楽しい。データから何かを発見する瞬間、めちゃくちゃ面白い。
まずは、Google Colabを開いて、アイリスデータセットで遊んでみてほしい。たった10分で、機械学習が動く。その感動を味わってほしい。
わからないことがあったら、一人で抱え込まないで。Qiitaで質問したり、メンターを探したり。機械学習のコミュニティは優しい人が多い。
Scikit-learnは、あなたの副業収入を変える力がある。
それじゃ、頑張って!
