Pages

Sunday, February 27, 2022

そのマーケツール選びは「間違い」だ 失敗を防ぐ鉄板11ステップ - 日経クロストレンド

andisendi.blogspot.com
マーケツール導入/乗り換えの極意 第1回

デジタルマーケティング支援会社アンダーワークス(東京・港)が制作した「マーケティングテクノロジーカオスマップ」には、1300超のツールが掲載されている。技術進歩でツールが増え続ける中、利活用する事業会社のマーケターは自社に適したツールを選定する目利きが求められる。本特集では、ツール導入で起こりがちな失敗、選定手順のフレームワーク、成功事例などからツールの乗り換え・導入の極意を学ぶ。第1回は専門家の意見を参考に選定手順を3つのフェーズに分け、1+10(計11個)のステップで解説する。

(写真/Shutterstock)

3つのフェーズ、11(1+10)のステップで自社に適したマーケティングツールを選定しよう(写真/Shutterstock)

 スマートフォンをはじめとするデジタルデバイスや、SNSなどのネットサービスが普及し、消費者の生活に占めるデジタル接点の比率が高まるにつれ、企業のマーケティング活動においてもデジタル技術の活用は欠かせない存在になっている。そうした活動を手助けするのがデジタルマーケティングツールだ。

 顧客の購買行動を起点に、自動的にメールを配信するMA(マーケティングオートメーション)や、ソーシャルメディア上の自社に関する投稿を管理するようなソーシャルリスニングツールはその一例。アドビやセールスフォース・ジャパンといった大手からスタートアップまで、さまざまな企業から新たなマーケティングツールが日々生まれ続けている。

 下図は、アンダーワークスが2021年7月に公表した「マーケティングテクノロジーカオスマップJAPAN 2021」だ。国内で提供されているマーケティングツールを、「EC」「MA・Eメール・SMS」「ソーシャルメディア」「広告」などの13カテゴリーに分類。さらにカテゴリーごとに細かなジャンルに整理している。その数は実に1317。これらの中から、自社に適したツールを選ぶのもマーケターの役割になっている。

アンダーワークスが21年7月に公表した「マーケティングテクノロジー・カオスマップJAPAN2021」。1317のツールを13カテゴリーに分類している

アンダーワークスが2021年7月に公表した「マーケティングテクノロジーカオスマップJAPAN 2021」。1317のツールを13カテゴリーに分類している

 「海外企業の間では、マーケティングテクノロジーのROI(投資利益率)算定や、ツールの導入・活用に責任を持つ『CMTO(最高マーケティングテクノロジー責任者)』のような職種も登場している」とアンダーワークスの田島学社長は言う。実際、「ツール運用や選定のコンサルティングを依頼してきた広告主の担当者が、もともとツール開発側に在籍していたため、非常に詳しいというパターンもある」と田島氏は続ける。

 そのような高度なスキルを持つ人材を外部から採用できるのが理想だが、現実的には在籍するマーケターが選定に関わることが一般的だろう。

マーケツールが宝の持ち腐れになる理由

 ところが、「デジタルマーケティングを強化するために、事業会社がDX(デジタルトランスフォーメーション)の専門部隊などを設置したとき、ツールを入れることが目的になり、導入したことを成果とするケースが少なからずある」。デジタルマーケティング支援会社WACUL取締役の垣内勇威氏はこう指摘する。

 「結果、最新のツールを入れたものの、機能が高度で運用業務が回らずに、ほとんど利用されなくなる。導入目的を明確化せず、ツールの選定から始めてしまうと失敗につながりやすい」と垣内氏は続ける。ツールは使いこなして、業績の向上に貢献してこそ成果と呼べるはずだ。これはマーケティングツール導入失敗の典型例だという。せっかくマーケティングツールを導入したのに、宝の持ち腐れになり、かけたコストが無駄になる。導入する側としては、当然このような事態は避けたいところだろう。

 そこで、ツール選定のコンサルティング業務に携わる専門家の意見を基に、選定の段階を「導入の検討」「比較・検討」「決定」という3つのフェーズに整理した。そのフェーズに沿って、11個のステップを経てツールを選定する。以下は、アンダーワークスがツール選定のコンサルティング業務に活用するフレームワークに、WACULの垣内氏が勧める「ツールを使用しない形でのマーケティング施策の実行」という工程を加えたものだ。順を追って説明していこう。

マーケティングツール選定手順のフレームワーク。「導入の検討」「比較・検討」「決定」という3つのフェーズに分け、1+10(計11個)のステップを経て、ツールを選定する。アンダーワークスの資料を基に、WACULの取材内容を加えて編集部で作成した

マーケティングツール選定手順のフレームワーク。「導入の検討」「比較・検討」「決定」という3つのフェーズに分け、1+10(計11個)のステップを経て、ツールを選定する。アンダーワークスの資料を基に、WACULの取材内容を加えて編集部で作成した

このコンテンツ・機能は有料会員限定です。

有料会員になると全記事をお読みいただけるのはもちろん
  • ①2000以上の先進事例を探せるデータベース
  • ②未来の出来事を把握し消費を予測「未来消費カレンダー」
  • ③日経トレンディ、日経デザイン最新号もデジタルで読める
  • ④スキルアップに役立つ最新動画セミナー
ほか、使えるサービスが盛りだくさんです。<有料会員の詳細はこちら>

Adblock test (Why?)


からの記事と詳細 ( そのマーケツール選びは「間違い」だ 失敗を防ぐ鉄板11ステップ - 日経クロストレンド )
https://ift.tt/rUQiJMR

Pythonで実装するニューラルネットワークを完成させよう - ITmedia

andisendi.blogspot.com

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

「ニューラルネットワーク入門」のインデックス

連載目次

 本稿は、ニューラルネットワーク(以下、ニューラルネット)の仕組みや挙動を、数学理論からではなくPythonコードから学ぶことを目標とした連載(基礎編)の最後となる第3回です。

 前々回の第1回では、「ニューラルネットの訓練(学習)処理を実現するために必要なこと」として、

  • ステップ(1)順伝播: forward_prop()関数として実装(前々回)
  • ステップ(2)逆伝播: back_prop()関数として実装(前回)
  • ステップ(3)パラメーター(重みとバイアス)の更新: update_params()関数として実装(今回)。これによりモデルが最適化される

という3大ステップを示しました。前回の第2回で、このうちの「ステップ(2)逆伝播」までの実装が完了しています。

 今回はその続きとして、「ステップ(3)パラメーターの更新と、モデルの最適化」までを実装して、ニューラルネットの実装を完了させます。最後に、それを使って簡単な回帰問題を解いてみます。

 ここからの内容は簡単です。その分、作業的なコーディング部分が多くなってしまいますが、最後の完成に至るまでを楽しんでコーディングしていきましょう。

 なお本稿は、第1回第2回とセットの内容なので、図や掲載コード(「リスト<数字>」と表記)などの番号は前回からの継続となっています。


Google Colabで実行する
GitHubでソースコードを見る

ステップ3. パラメーター(重みとバイアス)更新の実装

 それでは、今回も何も見ずにゼロからスクラッチでコードを書くという想定で進めていきます。

 実装を始める前に、まずはもう一度、訓練(学習、最適化)処理全体の実装から振り返っておきましょう(前々回のリスト1)。

# 訓練処理
y_pred, cached_outs, cached_sums = forward_prop(cache_mode=True# (1)
grads_w, grads_b = back_prop(y_true, cached_outs, cached_sums)  # (2)
weights, biases = update_params(grads_w, grads_b, LEARNING_RATE)  # (3)

リスト1(抜粋して再掲) 訓練(学習)処理全体の実装


 前回は、back_prop()関数から戻り値としてgrads_w, grads_bという2つの勾配(gradients)情報を取得できるようにしました。今回はその勾配情報を使って、パラメーター(重みとバイアス)を更新していきます。

 パラメーターを更新する目的は、もちろん分かっていると思いますが、ニューラルネットのモデルを最適化することです。以下に、最適化の考え方を簡単にまとめておきます。

 なお、本稿で説明するのは最も基礎的な勾配降下法Gradient Descent)です。後述するSGD(確率的勾配降下法)もその一種で、他にはRMSpropやAdamなどより応用的な手法があります。SGD以外の場合は、重みパラメーターの更新方法も少し変わってきます。

 図14は、教材などでよく見る「最適化の参考イメージ」で、1つの重みパラメーターしかない場合の損失関数のグラフです。このようなイメージで、重みパラメーターの数値を調整(=更新)しながら、坂の一番下まで進めていきます(ちなみに、この図は2次元のグラフですが、2つの重みパラメーターがある場合の、3次元のグラフも教材などでよく見ます。3次元の場合は、谷の底に着くまで進めるイメージになります)。

図14 最適化の参考イメージ 図14 最適化の参考イメージ

 更新時に、どちらの方向に、どれくらい進むかを表す数値が、前回で計算済みの「勾配」となります。坂の下に進むには、現在の「各重み」から「その勾配」を引き算した新しい「各重み」に更新します(例えば、勾配がの数値の場合は、坂道は右下りになります。坂の下に進むには今の数値にしなければなりません。今の数値からの勾配値を引く(する)とになるので、坂道を右下に進めます。勾配がの数値の場合は、坂道を左下に進めます)。

 ただし1回の更新(イテレーション)で一気に進むと、曲線の中を左右に行ったり来たりしてなかなか収束しない可能性があります。そこで1回(=オンライン学習なら1件のデータ、ミニバッチ学習ならバッチサイズ分のデータ)で進む距離が適度になるように、「学習率」(learning rateη:イータ)を「勾配」に掛け算することで、進む大きさをスケーリングして調整します。

1つのパラメーターの更新

 1つの重みパラメーターの更新をPythonコードで書くと、リスト23のようになります。簡単ですね。バイアスの場合も、wbに変えるだけの同じ式です。

# 取りあえず仮で、変数を定義して、コードが実行できるようにしておく
w_ij = 0.0  # 各重み
b_j = 0.0  # バイアス
grad_w_ij = 0.2  # 各重みの勾配
grad_b_j = 0.2  # バイアスの勾配
LEARNING_RATE = 0.1  # 学習率(lr)
lr = LEARNING_RATE
# ---ここまでは仮の実装。ここからが必要な実装---

w_ij = w_ij - lr * grad_w_ij  # 重みパラメーターの更新

b_j = b_j - lr * grad_b_j  # バイアスパラメーターの更新

リスト23 重みパラメーターの更新(SGDの場合)


 このコードは図15の計算式を表現したものです。

図15 重みパラメーター更新の計算式 図15 重みパラメーター更新の計算式

 以上が分かれば、パラメーター(重みとバイアス)を更新するPython関数は実装できます。

パラメーター更新の処理全体の実装

 またまた順伝播の実装と同じ説明内容になりますが、ニューラルネットは、層があり、その中に複数のノードが存在するという構造ですので、

  • 各層を1つずつ処理するforループと
    • 層の中のノードを1つずつ処理するforループの2段階構造が必要で
      • その中に「1つのパラメーターの更新」を記述

すればよいわけです。

 この考えに沿って、パラメーター更新の処理全体を行うupdate_params()関数を実装してみたのがリスト24です。2つのforループと、既に説明済みの「パラメーター更新」の実装(特に太字で示した4行)に注目してください。それら以外のコードは、更新した新しい「重み」と「バイアス」を多次元リストにまとめるためのこまごました処理なので、読み飛ばしても構いません。

def update_params(layers, weights, biases, grads_w, grads_b, lr=0.1):
    """
    パラメーター(重みとバイアス)を更新する関数。
    - 引数:
    (layers, weights, biases): モデルを指定する。
    grads_w: 重みの勾配。
    grads_b: バイアスの勾配。
    lr: 学習率(learning rate)。最適化を進める量を調整する。
    - 戻り値:
    新しい重みとバイアスを返す。
    """

    # ネットワーク全体で勾配を保持するためのリスト
    new_weights = [] # 重み
    new_biases = [] # バイアス

    SKIP_INPUT_LAYER = 1
    for layer_i, layer in enumerate(layers):  # 各層を処理
        if layer_i == 0:
            continue  # 入力層はスキップ

        # 層ごとで勾配を保持するためのリスト
        layer_w = []
        layer_b = []

        for node_i in range(layer):  # 層の中の各ノードを処理
            b = biases[layer_i - SKIP_INPUT_LAYER][node_i]
            grad_b = grads_b[layer_i - SKIP_INPUT_LAYER][node_i]
            b = b - lr * grad_b  # バイアスパラメーターの更新
            layer_b.append(b)

            node_weights = weights[layer_i - SKIP_INPUT_LAYER][node_i]
            node_w = []
            for each_w_i, w in enumerate(node_weights):
                grad_w = grads_w[layer_i - SKIP_INPUT_LAYER][node_i][each_w_i]
                w = w - lr * grad_w  # 重みパラメーターの更新
                node_w.append(w)
            layer_w.append(node_w)

        new_weights.append(layer_w)
        new_biases.append(layer_b)
    
    return (new_weights, new_biases)

リスト24 パラメーター更新の処理全体の実装(SGDの場合)


 注意点は特にありません。コード中のコメントを参考にしてください。

 以上でupdate_params()関数が完成したので、試しに実行してみましょう。

パラメーター更新の実行例

 リスト25のようなコードを書けば、順伝播から逆伝播、パラメーター更新までを続けて実行できます。

layers = [2, 2, 2]
weights = [
    [[0.15, 0.2], [0.25, 0.3]],
    [[0.4, 0.45], [0.5,0.55]]
]
biases = [[0.35, 0.35], [0.6, 0.6]]
model = (layers, weights, biases)

# 元の重み
print(f'old-weights={weights}')
print(f'old-biases={biases}' )
# old-weights=[[[0.15, 0.2], [0.25, 0.3]], [[0.4, 0.45], [0.5, 0.55]]]
# old-biases=[[0.35, 0.35], [0.6, 0.6]]

# (1)順伝播の実行例
x = [0.05, 0.1]
y_pred, cached_outs, cached_sums = forward_prop(*model, x, cache_mode=True)

# (2)逆伝播の実行例
y_true = [0.01, 0.99]
grads_w, grads_b = back_prop(*model, y_true, cached_outs, cached_sums)
print(f'grads_w={grads_w}')
print(f'grads_b={grads_b}')
# grads_w=[[[0.006706025259285303, 0.013412050518570607], [0.007487461943833829, 0.014974923887667657]], [[0.6501681244277691, 0.6541291517796395], [0.13937181955411934, 0.1402209162240302]]]
# grads_b=[[0.13412050518570606, 0.14974923887667657], [1.09590596705977, 0.23492140409646534]]

# (3)パラメーター更新の実行例
LEARNING_RATE = 0.1 # 学習率(lr)
weights, biases = update_params(*model, grads_w, grads_b, lr=LEARNING_RATE)

# 更新後の新しい重み
print(f'new-weights={weights}')
print(f'new-biases={biases}')
# new-weights=[[[0.14932939747407145, 0.19865879494814295], [0.2492512538056166, 0.2985025076112332]], [[0.3349831875572231, 0.3845870848220361], [0.48606281804458806, 0.5359779083775971]]]
# new-biases=[[0.3365879494814294, 0.33502507611233234], [0.490409403294023, 0.5765078595903534]]

# モデルの最適化
model = (layers, weights, biases)

リスト25 パラメーター更新の実行例


 以上で、「ステップ(1)順伝播」「ステップ(2)逆伝播」「ステップ(3)パラメーター(重みとバイアス)の更新」を担う3つの関数の実装が完了しました。あとは、これら3つの関数を呼び出す最適化処理を実装して完成です。

3つのステップを呼び出す最適化処理の実装

最適化処理:学習方法と勾配降下法

 最適化処理を行う代表的な学習方法には幾つかの種類があります(参考:「ディープラーニング最速入門」)。実装を始める前に、代表的な学習方法を簡単にまとめておきます。

  • オンライン学習Online training): データ1件ずつ訓練していくこと
  • ミニバッチ学習Mini-batch training): 小さなまとまりのデータごとに訓練していくこと
  • バッチ学習Batch training): データ全件で訓練していくこと

 このうち、オンライン学習やミニバッチ学習では、データをランダムにシャッフルすること(=統計学の確率論におけるランダムサンプリング、無作為抽出をすること)で、(標本/サンプルである)訓練ごとのデータの分布が、(母集団である)データ全体の縮図になるようにします(なお、バッチ学習のデータをシャッフルしても、データ全件を使うので無意味です。訓練時ではなく評価時は、再現性を保つためにもシャッフルしないのが一般的です)。このため、オンライン学習やミニバッチ学習の勾配降下法は、「確率的」勾配降下法(SGD)と呼ばれます。

 学習方法ごとに、勾配降下法をまとめると以下のようになります。

  • SGDStochastic Gradient Descent): オンライン学習
  • ミニバッチSGDMini-batch SGD): ミニバッチ学習。単にミニバッチ勾配降下法Mini-batch Gradient Descent)とも呼ぶ
  • 最急降下法Steepest Descent): バッチ学習。バッチ勾配降下法Batch Gradient Descent)とも呼ぶ

 最適化の実装は、バッチサイズでデータを処理しない分、オンライン学習のSGDが一番簡単で、説明する上でも分かりやすい内容になると思います。しかし今回は、コード内容も簡単なので少し難易度を上げて、あえて全ての学習方法に対応できる実装コードにしてみます。

最適化の処理全体の実装

 訓練処理では、エポック(=全データ分で1回の訓練)があり、その中にイテレーション(=バッチサイズごとでのパラメーターの更新)が存在するという構造ですので、

  • エポックを1回ずつ処理するforループと
    • その中にデータを1件ずつ処理するforループの2段階構造を用意し
      • その中に「ステップ(1)順伝播」「ステップ(2)逆伝播」と
      • イテレーションごとに「ステップ(3)パラメーターの更新」を記述

するようにします(あくまで筆者による実装方針の例です)。

 この考えに沿って訓練(最適化)処理を実装しますが、階層が深くなる上にコードの行数が少し長いので、説明の都合上、上の箇条書きの前半2行をリスト26(train()親関数)、後半2行をリスト27(optimize()子関数)、という親子関係の2つの関数に分けて記述します。1つの関数として実装した方がシンプルになって見通しもよくなるので、本来であればそうした方がよいと思います。

 まずリスト26の訓練処理では、2つのforループと、「訓練データのインデックスをランダムにシャッフル」している部分、リスト27で実装するoptimize()関数を呼び出して戻り値として返された損失値(loss)を蓄積(accumulate)している部分(acm_loss変数)(特に太字で示した7行)に注目してください。シャッフルはデータ内容自体ではなく、データのインデックスだけをシャッフルしています。

import random

# 取りあえず仮で、空の関数を定義して、コードが実行できるようにしておく
def optimize(model, x, y, data_i, last_i, batch_i, batch_size, acm_g, lr=0.1):
    " モデルを最適化する関数(子関数)。"
    loss = 0.1
    return model, loss, batch_i, acm_g

# ---ここまでは仮の実装。ここからが必要な実装---

def train(model, x, y, batch_size=32, epochs=10, lr=0.1, verbose=10):
    """
    モデルの訓練を行う関数(親関数)。
    - 引数:
    model: モデルをタプル「(layers, weights, biases)」で指定する。
    x: 訓練データ(各データが行、各特徴量が列の、2次元リスト値)。
    y: 訓練ラベル(各データが行、各正解値が列の、2次元リスト値)。
    batch_size: バッチサイズ。何件のデータをまとめて処理するか。
    epochs: エポック数。全データ分で何回、訓練するか。
    lr: 学習率(learning rate)。最適化を進める量を調整する。
    verbose: 訓練状況を何エポックおきに出力するか。
    - 戻り値:
    損失値の履歴を返す。これを使って損失値の推移グラフが描ける。
    """
    loss_history = []  # 損失値の履歴

    data_size = len(y)  # 訓練データ数
    data_indexes = range(data_size)  # 訓練データのインデックス

    # 各エポックを処理
    for epoch_i in range(1, epochs + 1):  # 経過表示用に1スタート

        acm_loss = 0  # 損失値を蓄積(accumulate)していく

        # 訓練データのインデックスをシャッフル(ランダムサンプリング)
        random_indexes = random.sample(data_indexes, data_size)
        last_i = random_indexes[-1]  # 最後の訓練データのインデックス

        # 親関数で管理すべき変数
        acm_g = (None, None# 重み/バイアスの勾配を蓄積していくため
        batch_i = 0  # バッチ番号をインクリメントしていくため

        # 訓練データを1件1件処理していく
        for data_i in random_indexes:

            # 親子に分割したうちの子関数を呼び出す
            model, loss, batch_i, acm_g = optimize(
                model, x, y, data_i, last_i, batch_i, batch_size, acm_g, lr)

            acm_loss += loss  # 損失値を蓄積

        # エポックごとに損失値を計算。今回の実装では「平均」する
        layers = model[0# レイヤー構造
        out_count = layers[-1# 出力層のノード数
        # 「訓練データ数(イテレーション数×バッチサイズ)×出力ノード数」で平均
        epoch_loss = acm_loss / (data_size * out_count)

        # 訓練状況を出力
        if verbose != 0 and \
            (epoch_i % verbose == 0 or epoch_i == 1 or epoch_i == EPOCHS):
            print(f'[Epoch {epoch_i}/{EPOCHS}] train_loss: {epoch_loss}')

        loss_history.append(epoch_loss)  # 損失値の履歴として保存

    return model, loss_history

# サンプル実行用の仮のモデルとデータ
layers = [2, 2, 2]
weights = [
    [[0.15, 0.2], [0.25, 0.3]],
    [[0.4, 0.45], [0.5,0.55]]
]
biases = [[0.35, 0.35], [0.6, 0.6]]
model = (layers, weights, biases)
x = [[0.05, 0.1]]
y = [[0.01, 0.99]]

# モデルを訓練する
BATCH_SIZE = 2  # バッチサイズ
EPOCHS = 1  # エポック数
LEARNING_RATE = 0.02 # 学習率(lr)
model, loss_history = train(model, x, y, BATCH_SIZE, EPOCHS, LEARNING_RATE)
# 出力例:
# [Epoch 1/1] train_loss: 0.05

リスト26 訓練(最適化)処理全体を担う関数の実装


 コード中にもコメントを入れていますが、気を付けてほしいポイントを以下でも触れておきます。

 リスト26では、各データごとに蓄積した損失値(=各エポック内の損失値の合計)をデータ数(data_size、出力ノード数のout_countは後述)で割って平均しています(厳密には、イテレーション、つまりバッチサイズごとの平均損失値を計算した後で、エポックごとに平均損失値を計算する方がよいです)。

 前回の実装では、損失関数に二乗和誤差SSE:Sum of Squared Error)を採用しました。よって、合計の1/21/2 × Σ)という損失値を計算すべきです(1/2の部分は、損失関数やその偏導関数の実装の中で計算済みです)。しかし、リスト26でデータ数(上記の通り、厳密にはバッチサイズ)で平均している段階で、実質的には「1/2した平均二乗誤差MSE:Mean Squared Error)」を使っていることに相当します(平均の1/21/2n × Σになっているので、完全なMSEでもないです)。

 このように損失関数を和(合計)から平均に変更したので、各勾配もバッチサイズごとに蓄積(後掲のリスト27のacm_gw変数やacm_gb変数)した後で、それをバッチサイズ(現在のバッチ数を意味するbatch_i)で割って平均する必要があります。

 なお、この「平均」の部分は、単に合計(Σ)や、合計の1/21/2 × Σ)、平均(1/n × Σ)、平均の1/21/2n × Σ)、その他の正規化など、のいずれのスケール調整(スケーリング)を行っても、最終的には学習率によってスケール調整されることになるので、結果は基本的に変わりません。しかし合計だけの場合、バッチサイズを変更するたびに学習率でスケールを調整しなければならなくなります。平均ならスケールは変わらないので調整しなくてよいです。そのため本稿では「平均」することにしました。

 実際にどうするかは、基本的に実装の目的や損失関数の計算式に依存します。分類問題では、交差エントロピー誤差などの損失関数に従い、基本的に平均します。また回帰問題では、平均二乗誤差などの損失関数に従い、基本的に平均します。

Copyright© Digital Advantage Corp. All Rights Reserved.

Adblock test (Why?)


からの記事と詳細 ( Pythonで実装するニューラルネットワークを完成させよう - ITmedia )
https://ift.tt/xaAQwDK

【チューリップ賞予想】桜やオークスに直結する最重要ステップ 1人気馬が強くサドラーの血が強い - 望田潤 | 競馬コラム - netkeiba.com - netkeiba.com

andisendi.blogspot.com

ワンターンの大箱マイル戦で、桜にもオークスにも直結する最重要ステップ。過去5年で1人気[4-0-1-0]、阪神JF勝ち馬[2-0-1-0]。1人気が連を外した20年も4人気と2人気の決着だから上位人気が強いレースだ。血統的にはエリザベスタワー、ストゥーティ、レシステンシア、シゲルピンクダイヤ、ラッキーライラック、ソウルスターリングと、サドラーズウェルズの血を引く馬が毎年上位を賑わせている。今年はというと、阪神JFを制しサドラーズウェルズの血を引くサークルオブライフが1人気になるんでしょうなあ…。(解説:望田潤)


ウォーターナビレラ
ソイカウボーイの半妹で、ビナスイートの姪で、メイショウムネノリなども近親。父シルバーステートは初年度から本馬やロンやベルウッドブラボーを輩出。母父キングヘイローはピクシーナイト、ディープボンド、アサマノイタズラ、イクイノックスなど最近よく走っている。外見や走りはわりと父似で、距離はもっと延びてもよさそう。マイルで弾けるというよりは1800で手堅いタイプか。スローになりやすいレースだし、ここも立ち回りの巧さで。
距離○ スピード○ 底力○ コース◎

サークルオブライフ
ハーグリーブスやベルクリアの姪で、トレンドハンターやスティールパスなども近親。ビリーヴやレディースシークレットも同牝系だ。母シーブリーズライフはヘイロー3×4とカーリアン3×4をもち芝短距離で3勝。エピファネイア×アドマイヤジャパンだから中距離×中距離だが、母母はマイラーというのはエフフォーリアやデアリングタクトと同じ。脚長で大箱向きストライドで、

Adblock test (Why?)


からの記事と詳細 ( 【チューリップ賞予想】桜やオークスに直結する最重要ステップ 1人気馬が強くサドラーの血が強い - 望田潤 | 競馬コラム - netkeiba.com - netkeiba.com )
https://ift.tt/xqTib0L

MIGMA SHELTER・レーレがファンタジーギャルに変身、さらなるステップアップ宣言した生誕レイヴ(レイヴレポート / 写真80枚) - 音楽ナタリー

andisendi.blogspot.com

161

MIGMA SHELTERのレーレの生誕レイヴ「FANTASY GAL」が2月20日に東京・白金高輪SELENE b2で行われた。

レーレ(Photo by Masayo)

レーレ(Photo by Masayo)

大きなサイズで見る(全80件)

レーレ(Photo by Masayo)

レーレ(Photo by Masayo)[拡大]

レーレ(Photo by Masayo)

レーレ(Photo by Masayo)[拡大]

本公演は2月25日が誕生日のレーレを祝うために開催されたもの。イベントのオープニングを飾ったのは生誕レイヴ恒例のソロコーナーだ。映像チームによる配信も行われる中、“ファンタジーギャル”に扮した姿で現れたレーレは、自身が所属していたTHERE THERE THERESの楽曲「NYLON FLAMINGO」でパフォーマンスを開始。ヒールを履いた彼女はオリジナル振り付けの “バーレスクダンス”を妖艶に踊る。MCではいつものほんわかした笑顔を見せながら靴を履き替えたレーレは「このあとはファンタジーミックスをお届けしまーす!」と宣言。BELLRING少女ハートの「c.a.n.d.y.」「UNDO」「get rid of the Chopper」、MIGMA SHELTERの「Mo' Strain」「GIPS」のマッシュアップから「Joint」「TOKYO SQUARE(Dubscribe Remix)」「My Wonderland」「Drops」「Parade's End」と彼女が所属したAqbiRecの各グループの楽曲を目まぐるしくつなぎ、THERE THERE THERESの「Sunrise=Sunset」で約12分間のノンストップパフォーマンスを締めくくった。レーレは息も切らさず「ありがとうございました!」と挨拶。余裕の笑顔でステージを去った。

RAY(Photo by Masayo)

RAY(Photo by Masayo)[拡大]

RAY(Photo by Masayo)

RAY(Photo by Masayo)[拡大]

ソロコーナーに続いては、ゲストのRAYがステージに登場。吉田一郎不可触世界が提供したエレクトロニックなダンスナンバー「TEST」でライブの口火を切った甲斐莉乃、内山結愛、琴山しずくの3人は、テクノビートにさわやかな歌声を乗せた「サイン」でフロアを揺らす。甲斐は腰痛のため椅子に座ってのパフォーマンスながら、丁寧な歌唱と息の合ったダンスで観客を魅了。3人は「17」「逆光」「シルエット」「わたし夜に泳ぐの」と生誕イベントであることを意識したかのようなポジティブなセットリストで約30分のライブを繰り広げた。パフォーマンス後、内山は「本日はレーレちゃんの生誕祭にお呼びいただき、めちゃめちゃうれしいです。ありがとうございます!」と挨拶。3人はグループの3周年を記念したワンマンライブが5月8日に白金高輪SELENE b2で開催されることを告知して退場した。

レーレ(Photo by Masayo)

レーレ(Photo by Masayo)[拡大]

MIGMA SHELTER(Photo by Masayo)

MIGMA SHELTER(Photo by Masayo)[拡大]

「ガンギマっていきまっしょい!」という掛け声が響いたあと、民族的なパーカッションのSEとともにMIGMA SHELTERが登場。この日は一時活動休止中のユブネに加えて、ブラジルが新型コロナウイルス感染により欠席しており、ミミミユ、タマネ、レーレ、ナーナナラの4人での出演となった。レーレが「これからみんなでファンタジーなギャルになりましょうね!」と元気に挨拶し、ミミミユが「レちゃんおめでとー」と花束をプレゼントすると、定番曲「Svaha Eraser」でレイヴがスタート。4人は欠席したメンバーのパートも力強く歌い上げ、レーレは受け取った花束を持ったまま踊り切る。その後4人は「Unbirthday」「Spider Line」「Paralyzing」「69」とアグレッシブなナンバーを連発。レーレの歌い出しが印象的な「In Wonderland」では、楽曲の世界を連想させる妖しげな森が映し出される。そこからピアノの旋律が美しい「NAME」、ラテン系トランス「Coro Da Noite」と続き、人気曲「Joint」でフロアの盛り上がりは最高潮に達した。

MIGMA SHELTER(Photo by Masayo)

MIGMA SHELTER(Photo by Masayo)[拡大]

MIGMA SHELTER(Photo by Masayo)

MIGMA SHELTER(Photo by Masayo)[拡大]

「Egg Head」でフロアとの一体感を強めた4人は、強烈なキックが突き刺さるロック系トランス「BANG ON」、ディジュリドゥとロックギターが絡む高速サイケデリックトランス「QUEEN」、奇天烈な展開を繰り広げる「My Wonderland」を畳みかけ、神秘的な「Cosmic Forest」へとなだれ込む。そしてメンバーがステージ上をグルグルと駆け回ると楽曲のピッチが徐々に加速し、レイヴはクライマックスパートへと突入。この日の主役であるレーレがメンバーに“改造”されるパフォーマンスで照れ笑いを浮かべた「Compression: Free」から爽快なイントロの「TOKYO SQUARE」につながれると、東京の夜景を描いたVJにより楽曲の世界観が表現された。

レーレ(Photo by Masayo)

レーレ(Photo by Masayo)[拡大]

約70分のレイヴを終えたレーレは、持参した手紙を取り出し、「私は今年で上京し、AqbiRecに入って7年目になります。正直、大変なこともたくさんあります。そんな中こうしてステージに立てているのも、いつも応援してくれているファンの皆さんや、家族や友達や、AqbiRecのみんなやスタッフさんなど関わってくれているみんなのおかげです。いつも私にパワーをくれてありがとう。今日マジで幸(さち)な人類、アイドルです! メンバーもいつもいつもありがとう!」と感謝の気持ちを伝える。そして「これからもみんなをアゲにしていくし、必ずMIGMA SHELTERとしてステップアップし、みんなをすごいところへ連れて行きます」と決意を表明した彼女が「みんなのことを心からI LOVEです!」と指ハートのポーズで挨拶を締めくくると、メンバーがサプライズで用意したバースデーケーキも登場。生誕レイヴは温かいムードで幕を閉じた。

なお3月26日には東京・新宿BLAZEにてタマネの生誕レイヴが開催される予定だ。

この記事の画像(全80件)

「FANTASY GAL」2022年2月20日 白金高輪SELENE b2 セットリスト

レーレ

01. NYLON FLAMINGO
02. ファンタジーミックス

RAY

01. TEST
02. サイン
03. 17
04. 逆光
05. シルエット
06. わたし夜に泳ぐの

MIGMA SHELTER

01. Svaha Eraser
02. Unbirthday
03. Spider Line
04. Paralyzing
05. 69
06. In Wonderland
07. NAME
08. Coro Da Noite
09. Joint
10. Egg Head
11. BANG ON
12. QUEEN
13. My Wonderland
14. Cosmic Forest
15. Compression: Free
16. TOKYO SQUARE

全文を表示

MIGMA SHELTERのほかの記事

Adblock test (Why?)


からの記事と詳細 ( MIGMA SHELTER・レーレがファンタジーギャルに変身、さらなるステップアップ宣言した生誕レイヴ(レイヴレポート / 写真80枚) - 音楽ナタリー )
https://ift.tt/z50tSGq

【チューリップ賞予想】桜やオークスに直結する最重要ステップ 1人気馬が強くサドラーの血が強い | 競馬コラム - netkeiba.com - netkeiba.com

andisendi.blogspot.com

  • ワンターンの大箱マイル戦で、桜にもオークスにも直結する最重要ステップ。過去5年で1人気[4-0-1-0]、阪神JF勝ち馬[2-0-1-0]。1人気が連を外した20年も4人気と2人気の決着だから上位人気が強いレースだ。血統的にはエリザベスタワー、ストゥーティ、レシステンシア、シゲルピンクダイヤ、ラッキーライラック、ソウルスターリングと、サドラーズウェルズの血を引く馬が毎年上位を賑わせている。今年はというと、阪神JFを制しサドラーズウェルズの血を引くサークルオブライフが1人気になるんでしょうなあ…。(解説:望田潤) ウォーターナビレラ ソイカウボーイの半妹で、ビナスイートの姪で、メイショウムネノリなども近親。父シルバーステートは初

あなたにおすすめ

Adblock test (Why?)


からの記事と詳細 ( 【チューリップ賞予想】桜やオークスに直結する最重要ステップ 1人気馬が強くサドラーの血が強い | 競馬コラム - netkeiba.com - netkeiba.com )
https://ift.tt/2N8QRlV

Saturday, February 26, 2022

AI活用に最適なテーマを発掘 3ステップで成功確率上げる - ITpro

andisendi.blogspot.com

全3825文字

プロジェクトを成功させるために、AI活用に最適なテーマが何かを判断する必要がある。テーマ発掘の前提として、AIでできること、できないことへの理解が欠かせない。テーマを発掘する際は、3つのステップから成るフレームワークが有効だ。

 今回取り上げるのは、AI(人工知能)活用の「テーマ発掘」です。社員が自らアイデアを出して、AI活用を実現していくスタート地点を解説します。

テーマでAI活用の成否が決まる

 筆者は自分が事業会社に在籍していた際のAI活用や顧客へのAI活用支援を通して、プロジェクトが途中で頓挫するケースをこれまで数多く見てきました。そういったプロジェクトを振り返り、原因を探していくと、共通の問題があると気づきました。それは、プロジェクトを開始する前にAI活用に最適な課題・テーマが何かを正しく判断していなかったことでした。

 そうした問題に陥る主な原因は2つあると考えています。1つは、AI Drivenにかじを切る上で重要な種まきとなるテーマ発掘において、取り組むべき最適なテーマかどうかを客観的に評価しなかったこと。もう1つは、事前に予見できるはずのリスクを排除できなかったことです。

 失敗例を1つ紹介しましょう。あるプロジェクトでは、ビジネスインパクトや実現可能性のあるテーマをうまく見つけられないままプロジェクトを走らせてしまいました。その結果、PoC(概念実証)まで実施したにもかかわらず、いざ実運用する際に社内の協力が得られずにプロジェクトが頓挫してしまいました。

 逆に言えば、テーマを発掘するフェーズでこうした問題を回避できればプロジェクトが成功する確率は格段に上がります。筆者もそのようにしてAIプロジェクトを成功させ、ビジネスインパクトを生み出してきました。では具体的にどうすればよいか見ていきましょう。

できること、できないことを理解

 まず、テーマ発掘の前提として重要なポイントがあります。それは、担当者が「AIでできること、できないこと」を正しく認識し、理解していることです。AIと聞いてイメージするものは人によって異なります。中には、AIは人間よりも全ての面ではるかに優れていると考える人もいます。しかし、今日のAIはあくまで業務の一部を高度化、高速化、自動化してくれる部分最適のツールの1つにすぎません。そのような理解をした上で、身の回りのどの業務でAIを活用するのかを正しく判断する必要があります。

 実践的なAIを学ぶためにAIの活用事例を共有するコミュニティーへ参加するのは非常に有用な手段の1つです。周りの参加者から、なぜAIを活用しているのか、どんな課題に対して取り組んでいるのかなど生きた情報やリアルな体験談に触れることで、自社の取り組みへの応用が期待できます。

 AIに関する基礎知識を身につけたとして、テーマ発掘の手法へ話を進めます。ここからは筆者らがテーマ発掘のためのフレームワークとして推奨する以下の3つのステップを解説します。

  • (1)課題の特定と予測対象の設定
  • (2)実運用フローの設計
  • (3)ビジネスインパクトの試算/実現可能性の評価

Adblock test (Why?)


からの記事と詳細 ( AI活用に最適なテーマを発掘 3ステップで成功確率上げる - ITpro )
https://ift.tt/yTEv8Su

「Re:ステージ!プリズムステップ」,ピックアップガチャ“2月のお誕生日さん”が本日開始 - 4Gamer.net

andisendi.blogspot.com

<以下,メーカー発表文の内容をそのまま掲載しています>

ポニーキャニオンとhotarubi、『Re:ステージ!プリズムステップ』でピックアップガチャ-2月のお誕生日さん-を開催!


画像集#001のサムネイル/「Re:ステージ!プリズムステップ」,ピックアップガチャ“2月のお誕生日さん”が本日開始

ポニーキャニオンとhotarubiは、好評配信中の思考型リズムアクションゲーム『Re:ステージ!プリズムステップ』において、ピックアップガチャ-2月のお誕生日さん-の開催をお知らせいたします。

今後もTVアニメ・ストーリー・音楽・ライブ・ゲームと、多方面に展開する「Re:ステージ!」にご期待ください。

■ピックアップガチャ-2月のお誕生日さん-概要


該当月にお誕生日を迎えるキャラクターを対象とした単独ピックアップガチャを開催いたします。
イベント報酬などの一部を除き、これまで登場したほとんどの限定☆4ハク&玄刃が封入されています。

開催期間:2022年2月25日(金)16:00〜2月27日(日)23:59
※その他の詳細については、アプリ内のお知らせをご確認ください。

■-2月のお誕生日さん-限定☆4ハク&玄刃一部紹介


☆4[IDOL×Nurse]西館ハク(CV:佐藤実季)
画像集#002のサムネイル/「Re:ステージ!プリズムステップ」,ピックアップガチャ“2月のお誕生日さん”が本日開始

☆4[にゃんだふるメイド]西館ハク(CV:佐藤実季)
画像集#003のサムネイル/「Re:ステージ!プリズムステップ」,ピックアップガチャ“2月のお誕生日さん”が本日開始

中学1年生。無口で集団行動を好まない一匹狼タイプだが、美久龍のことは慕っているようだ。彼女の加入によって、テトラルキアはグループ活動が可能になった。
☆4[ワン・ツー・スリー♪]城北玄刃(CV:西田望見)
画像集#004のサムネイル/「Re:ステージ!プリズムステップ」,ピックアップガチャ“2月のお誕生日さん”が本日開始

☆4[Summer:TIME!!]城北玄刃(CV:西田望見)
画像集#005のサムネイル/「Re:ステージ!プリズムステップ」,ピックアップガチャ“2月のお誕生日さん”が本日開始

中学2年生。頭がよく分析力が高いため、参謀的ポジションに収まっている。メンバーが勝手に騒ぎ出すと面倒になって「帰る」と言い出すこともしばしば。

Adblock test (Why?)


からの記事と詳細 ( 「Re:ステージ!プリズムステップ」,ピックアップガチャ“2月のお誕生日さん”が本日開始 - 4Gamer.net )
https://ift.tt/725O84w

Friday, February 25, 2022

専任の教師だから実現できる「STEP」の楽しく力の付く授業 - リセマム

andisendi.blogspot.com  神奈川県内で学習塾を展開する「STEP(ステップ)」が「イード・アワード2021 塾」において、3年連続で「中学生/集団指導の部」の最優秀賞を獲得した。ステップ代表取締役社長の遠藤陽介氏に、多くの生徒や保護者にステップが支持される理由や神奈川県内の公立難関校を中心に合格実績でトップを走る背景等を聞いた。

3年連続で最優秀賞を獲得

--2019年、2020年に続き、3年連続で中学生・集団指導の部の「最優秀賞」を獲得されました。また部門賞で「面倒見の良い塾」「講師が良い塾」「教材が良い塾」「成績が上がる塾」「授業がわかりやすい塾」「子供が好きな塾」「受験・進学情報充実の塾」を受賞され、高校生・大学受験生の部では「面倒見の良い塾」「子供が好きな塾」の部門賞を受賞しています。ご感想を教えてください。

 今回3年連続の最優秀賞とともに多くの部門賞を獲得できたのは大変うれしい限りです。私たちステップの教師たちは賞をいただくことを目的として授業をしているわけではありませんが、こうして社会的に認知されているイード・アワードという賞をいただけることは大変ありがたいと思います。教師たちにとっても「成績が上がる塾」や「面倒見が良い塾」という項目でナンバーワンを獲得できたのは、とても励みになると思います。

コロナ禍を通じて対面授業の良さを実感

--2019年度の受賞時にインタビューさせていただいてからコロナ禍も本格的に広がりました。日々の学習や部活等の行事も制限がある中でどのような対応をされてきましたか。

 2年前の3月には全国の小中高が休校になり始め、e-STEPという欠席や復習のために用意していた動画コンテンツの視聴を呼びかけ2週間私たちの塾もすべて休校にしました。ただ、生徒たちからしてみれば普段とは違う教師が授業をするものだったので、この時のe-STEPの視聴率はあまり芳しいものではなく、これでは正規の授業料をいただくわけにはいかないと考え、在籍料を除く9割の授業料をお返しいたしました。コロナ禍で生徒や保護者のみなさんが苦しむ中にあって、ステップだけが授業料を満額いただくというわけにはいかないという思いもありました。

 春期講習はかろうじて実施することができましたが、その後、4月から緊急事態宣言発令に伴い、再び学校が一斉休校になり、今度は授業料の60~80%をカットする特別授業料としました。その時は3月の反省を踏まえて、各校舎の各クラス、各科目の担当教師が授業の動画を配信。普段の授業を担当する教師が動画を配信するので、生徒も視聴するようになったんです。それをステップの小中学部全校舎、英数国理社の5科目で実施し、その数はおよそ4万本以上におよびました。また、その間も毎朝Zoomでホームルームを行い、コミュニケーションを取り、小中学校に通えない生徒たちに寄り添う対応をしました。

--まさに学校ですね。

 生徒たちは当時、学校も部活も修学旅行にも行けないという、とてもつらい時期でしたが、毎朝Zoom越しにみんなで顔を合わせることができて、生活リズムを保てたんですよね。保護者もお仕事が休みや在宅勤務になり、ステップの教師はこういう授業をしているんだ、こうやって子供たちに接しているんだと、授業を知ってもらえる良い機会になったと思います。

 始めは不慣れだったオンライン授業も、徐々に教師たちも慣れていき、Zoomを使って対面でライブの授業をやろうという動きが広がり、ライブ授業を行うことにしました。動画の配信に加え、このライブ授業もとても好評で、緊急事態宣言が明けると、かつてないほど生徒や保護者の方から感謝の声をいただきました。


 「Zoomによるホームルームで先生や友達の顔が見ることができて本当に感謝しています」「行動の早さが素晴らしかったです」「朝のホームルームで家庭学習のベースができたのが良かったです」「普段、教えてくださっている先生方で子供も親しみを持って真剣に見ていました」「家庭学習は孤独を感じやすいですが、Zoomのホームルームは1日15分でも毎日クラスの友達のようすがわかって、子供も良い刺激をもらったようです」といった声をたくさんいただきました。

 今の時期、また新型コロナウイルス感染症の感染状況が厳しくなってきましたので、昨日(インタビューは2022年1月28日に実施)から、小学5年生から中学2年生までをZoomによるオンライン授業中心に切り替えました。ただ中学3年生だけは公立高校入試が2月15日に迫っていますので対面をベースに、Zoomでの参加もOKとしていますが、多くの受験生は対面を選択しています。Zoomは対面授業に参加できない際の代替ツールとしては充分機能しますが、学習効率は対面授業の方が良いと思います。生徒の答案を見て、ここはこうやって間違ってるねといったやりとりまではZoomではなかなか難しい。生徒たちもこのコロナ禍を経験したからこそ、逆に対面授業の良さに気付いたのかと思います。

授業の質・神奈川特化・合格実績という3つの強み

--2021年の高校受験実績を振り返ると、湘南、横浜翠嵐、厚木、柏陽、厚木等の難関校における合格実績は全塾の中でもNo.1をキープされています。中学生の受験指導での特徴やこだわりを教えてください。

 私たちの強みやこだわりで最初に挙げられるのは「授業の質」です。ステップでは教室長やブロック長、本部長、経営陣、社長も、役職が上がっても継続して授業を担当します。65歳を過ぎても今もなお日々授業を担当している教師もいます。

 学習塾はバイト感覚で学生がする仕事と考えていらっしゃる方もいるかもしれませんが、私たちは一部、外国人講師の方等を除けば、96%が正社員である専任教師のプロ集団です。「いい授業をすることこそが最大の営業」というポリシーの元、教師が営業活動をすることもありません。

 教材研究にも力をいれており、教材研究部という部署で社員の専門性を生かしてオリジナルの教材を制作しています。たとえば、神奈川県公立入試のひとつ、「特色検査」を専門に研究チームがあり、特色検査模試をはじめ、専門教材の作成を行っています。充実した時間割や研修、教材制作をはじめとして、正社員化は圧倒的なメリットがあります。

「授業の質」にこだわり、教材研究部が制作しているオリジナル教材

 次に考えられるのは、やはり「神奈川県に特化」していることでしょう。よく他県への進出について聞かれますが、これからも神奈川を出ることは考えていません。最近では昔の生徒が現在のステップ生の保護者という、親子二代ステップ生も珍しくありません。

 ステップは教師の力を大切にしているため、教室を増やすにも「ゆっくり急ぐ」ことをポリシーとしています。こうした長年の積み重ねが地域での信頼感につながっているとも感じています。

 最後はもちろん、神奈川県で翠嵐、湘南、厚木、柏陽、川和といった学力向上進学重点校をはじめ、県内の公立トップ校、横浜市内の公立トップ校の合格実績でナンバーワンであることです。私たちの進路指導のスタンスは、生徒、ご家庭が決めた進路を全力で応援することですが、その結果が、翠嵐や湘南などの学力指導重点校での合格実績ナンバーワンにつながっていると思います。


オリジナルの高校ガイドブックは、合格したステップ生OB・OGのイラストやコメントがびっしり

--部活動との両立も特徴とされていますね。

 中学生も高校生もほとんどの生徒が部活をやりながらステップに来ています。神奈川県は部活も盛んで、部活と両立し、日々忙しい中ドロドロになったままステップに来て、「宿題を忘れました」という生徒もいます(笑)。もちろん宿題はやってきたほうが良いけれど、「そういうこともあるよね、一緒に頑張っていこう!」と温かく接しています。

--生徒の先生の距離が近いのでしょうか。

 それはあると思います。ステップの教師たちは、フレンドリーで近所にいるよい兄貴やお姉さんという存在です。とはいえ規律は保たれていて、あるときはチームのキャプテンのようにリーダーシップを発揮するなど、教師がただの友達になってしまわないよう、適度な距離感を保ちながらサポートしています。

変化していく教育に柔軟に対応

--新学習指導要領の全面実施で、英語4技能強化、科目横断型の学びや探究学習など中学生の学びにも変化がありました。評価観点も「知識・技能」「思考・判断・表現」「主体的に学習に取り組む態度」の3観点に変わりました。生徒や保護者からの相談事はありましたか。

 地域や学校によっても異なる場合はありますが、観点別評価が4項目から3項目に変わり「5」が取りにくくなっています。「5」の数は減り、「4」と「3」に集中しているようです。逆に「2」も少し減ったようです。

 また英語に関しては、以前の学習指導要領では中学3年間で習う単語数は1,200語でしたが、新指導要領では小中学校合わせて2,500語。小学校のうちに600~700語を学んでいる前提です。ところが中学校では、小学校では学習していないと判断して今までどおりにアルファベットから教える先生もいれば、小学校ですでに学習していることを前提として授業を進める先生もいらっしゃいます。現場は混乱しています。保護者の方からは、「本当に大丈夫なんでしょうか」という不安の声をよく聞きます。

 私たちは英語を受講していない生徒にも、小学6年生ではこのぐらいを知っておくと良いですよと単語リストを用意して、一般動詞とbe動詞の違いを見分けられる練習やローマ字を読めて書けるようにガイドしています。中学校によって対応はさまざまですが、ステップに来れば、最終的に入試までに力を付けていくので、心配しないで来てくださいと呼びかけています。

 また、最近ステップでは、英語が得意ならば、小学6年生で4級を、中学2年生で準2級、中学3年生で2級を取得という目標設定をお勧めしています。最近では英検2級にチャレンジしようという中学生がだいぶ増えてきました。

 そしてステップならではの「はば広教養」という科目横断的な勉強を、小学生から中学生の授業で実施しています。これがとても人気です。内容としては、社会的なこともやるし、国語的なこともやるし、理科的なこともやって雑学を広げる、まさに科目横断です。こうした取組みも思考力重視の特色検査に強くなる要素のひとつになります。

「科目横断的な独自の授業『はば広教養』は特色検査に強くなる要素のひとつ」と語る遠藤社長

 また「はば広クイズ王決定戦」と題して、教室で予選会からスタートして地区予選から本選に進む大会を開催しています。教室ではステップが無線で飛ぶ早押し機を作り、生徒1人1台ずつ用意。予選はZoomで開催ですが、今年はコロナで本選決勝もZoomになるかもしれません。実は昨年もとある有名テレビ番組に横浜翠嵐高校のクイズ研究会が出場しましたが、出場者3人全員がステップ生でした。いつかテレビのクイズ番組はステップ生が独占という日を夢見ています(笑)。

楽しく力を付ける

--入塾のタイミングや目的について傾向があれば教えてください。

 小学5年生や6年生から通う方、この学習指導要領が変わったことでやはり英語が心配という方は増えました。ステップ全校舎で満席の教室が増えていますが、中学3年生は入試前11月になると募集はストップします。私たちはずっと応援してきた生徒を最後はしっかりサポートしたいので、11月以降は新規入会をお受けしていません。

 最近は中学2年生でも満席で空席待ちが出ていますので、中学2年生で入れないから中学1年生、中学1年生でも満席なので小学5、6年生からと、徐々に入会時の年齢が下がってきています。またステップでは、小学6年生の12月までに小学6年生の内容を終えて、1月からは中学数学「正負の数」を始めますので、そのタイミングでの入塾希望も多いです。

--今後の展望を教えてください。

 神奈川県内に強力なネットワーク体制を作っていきたいと考えています。今年は新たに武蔵新城、武蔵中原、向ヶ丘遊園の3スクールを開校しました。現在、藤沢市の中学生の4人に1人、海老名市も5人に1人がステップ生なのですが、まだそれほど開校していない川崎市や横浜市を中心に今後、拡大していきたいです。

--入塾を検討中の保護者にメッセージをお願いします。

 ステップの教師たちの人柄から生まれる、「楽しく力の付く授業」を、ぜひ一度、体験してほしいと思います。「はば広教養」の体験授業は本当に盛り上がります。保護者会でやってみても、保護者の方が熱中されますので(笑)。

--勉強が苦手で保護者に連れて来られるお子さまも、体験授業で変わる場合はありますか。

 来る時は乗り気ではなかったけれども、帰る頃にはもう一度やってみたいとなるお子さんは多くいます。体験に来てもらうとステップの良さをわかっていただけると思います。

--ありがとうございました。

 小学生、中学生のみならず、高校生・大学受験生向けのスクール「大学受験STEP」も現在、多くのクラスが満席の状態だという。さらに小学1から4年生対象のアフタースクール「STEPキッズ」では、サイエンスやプログラミング、卓球、ボルダリング、手話、百人一首、将棋、ダンス、いも掘り等、子供たちの豊かな体験や興味喚起を促す充実した独自プログラムを藤沢・茅ヶ崎・辻堂の3教室で展開中で、人気が高まっているそうだ。

 遠藤社長は現在も、たまプラーザスクールの中学部で英語の授業を受けもち、翠嵐特訓講座でも英語を教えている。数字を交えた説得力のある話ぶりは快活そのもので、インタビューが進むにつれて、こちらが元気になってきた。神奈川を地盤にしたステップへの支持は、さらに地元の子供たちや保護者に広がることだろう。

Adblock test (Why?)


からの記事と詳細 ( 専任の教師だから実現できる「STEP」の楽しく力の付く授業 - リセマム )
https://ift.tt/nzEQCqx

設楽悠「次へのステップアップに」 27日に大阪・びわ湖マラソン統合大会 - 産経ニュース

andisendi.blogspot.com
別府大分毎日マラソンにペースメーカーとして参加した設楽悠太(41番)=2月6日、大分県別府市(代表撮影)
別府大分毎日マラソンにペースメーカーとして参加した設楽悠太(41番)=2月6日、大分県別府市(代表撮影)

大阪マラソン・びわ湖毎日マラソン統合大会が27日、大阪市の大阪府庁前から大阪城公園までの42・195キロのコースで開催される。25日は有力選手がオンラインで会見し、元日本記録保持者の設楽悠太(ホンダ)は「練習でのタイムも上がってきて手応えはある。次に向けてステップアップできるレースにしたい」と意気込みを語った。

びわ湖毎日が昨年に滋賀県での開催を終了し、今回から大阪マラソンと統合される。両方の大会に出場経験がある川内優輝(あいおいニッセイ同和損保)は「どちらも4位が過去最高なので、記録よりもメダル(3位以内)を目指したい」と力を込めた。

今夏の世界選手権(米オレゴン州)の代表選考会を兼ね、2024年パリ五輪の代表選考会「マラソングランドチャンピオンシップ(MGC)」の出場権を懸けたレース。約2万人が参加予定だった一般ランナー部門は新型コロナウイルスの影響で中止となり、男女約300人のエリート部門のみが開催される。

Adblock test (Why?)


からの記事と詳細 ( 設楽悠「次へのステップアップに」 27日に大阪・びわ湖マラソン統合大会 - 産経ニュース )
https://ift.tt/zFrAjXL

Tuesday, February 22, 2022

サステナブルブランディングの考え方から、統合報告書を発刊するまでのステップを解説。経営企画、CSR、広報IRご担当者様必見のオンラインセミナーを開催いたします。 - PR TIMES

andisendi.blogspot.com


近年、投資家やステークホルダーの間では、財務にまつわるIRレポートに加え、サステナビリティレポートやSDGsへの取り組みなどの非財務情報を取り入れた中長期での経営ビジョン、企業の強みなども含めて企業価値を総合的に判断してます。
 
そのため上場企業においては投資家へのアプローチとして、非財務情報を自社内で深く検討し、発信情報を準備すると共に、財務情報と連携させ、企業としてレポーティング・発信する「統合報告書」が必須の時代になっています。
しかしながら、この新しいスタイルとなる統合報告書については、既存のIRレポート担当者だけでは制作が難しい、また、組織内のどの部署、担当者がディレクションをしていく必要があるのかわからない、担当にはなったものの発信情報がほとんどない、いきなり統合報告書の制作は難しいが1年後には何かを発刊しなければならないがどうしたらよいか…などの声がお悩みとしてよく聞かれます。
本セミナーではそのような問題を解決するべくサステナブルブランディングの考え方から、統合報告書を発刊するまでのステップとその内容を分かりやすく発信させて頂きます。

本ウェビナーのお申し込みはこちら
https://ux.daishinsha-cd.jp/ja/22_0228_0310sustena

◆ウェブセミナー概要
セミナー名: 《経営企画、CSR、広報IRご担当者様必見!》 
       サステナブル・コミュニケーションへの第一歩 ~統合報告書発刊に向けた取組から社内浸透へ~
日時: 2022年2月28日(月)15:00~16:00
    2022年3月10日(木)15:00~16:00
         ★2回開催(2月28日と3月10日は同一の内容となっております。ご都合の良い日程を選択ください)
会場: 本セミナーは、zoomを使用したウェビナー(オンラインセミナー)となります
主催: 株式会社大伸社コミュニケーションデザイン
参加費: 無料

◆ウェブセミナー内容
・サステナブルブランディングとは
・統合報告書とは?
・何のために発刊するのか?
・アニュアルレポート、CSRとの違い
・どのように制作するのか?
・発信情報が薄い/統合報告書が制作できない場合の解決策
・発行のメリット
・発行後の効果測定に関して

◆講師
大伸社コミュニケーションデザイン
ビジネスデザイン部 プロデューサー
梅村 茂樹
クリエイティブディレクタ
廣瀬 妙

【大伸社コミュニケーションデザインについて】
マーケティングとコミュニケーションデザインの領域で顧客の様々な経営課題の解決に取り組んでおります。 
今回ご紹介するサステナブルブランディング支援の制作の他、 カタログ・webサイト・展示会を起点としたコンテンツマーケティングや製品ブランディング、 MA運用支援などのデジタルマーケティング支援など行っております。  

▼統合報告書の特設サイトはこちら
企業の想い×統合報告書
https://www.daishinsha-cd.jp/Integrated-Reporting/

▼サステナブルブランドトランスフォーメーション特設サイトはこちら
https://www.daishinsha-cd.jp/sbt/

商号         : 株式会社大伸社コミュニケーションデザイン
代表者      : CEO 代表取締役 一色 俊慶
所在地      : 〒150-0001 東京都渋谷区神宮前2-4-11 Daiwa神宮前ビル1F・2F
設立       : 2014年11月
事業内容   : SP全般の企画、デザインとマーケティング・ブランディング支援
資本金      : 1,000万円
URL     : https://www.daishinsha-cd.jp

Adblock test (Why?)


からの記事と詳細 ( サステナブルブランディングの考え方から、統合報告書を発刊するまでのステップを解説。経営企画、CSR、広報IRご担当者様必見のオンラインセミナーを開催いたします。 - PR TIMES )
https://ift.tt/hgZiCuB

akippa、2022年シーズンもJ1セレッソ大阪とのオフィシャルスポンサー契約を更新、満員のスタジアムが戻ってくる日に向けて駐車場問題解決に取り組みます。 - PR TIMES

andisendi.blogspot.com


akippaは2016年よりセレッソ大阪と協力し、スタジアム周辺駐車場の予約貸し出しを実施することで、チームはもちろん地域住民にとっても課題であった試合時の駐車場不足の解消に取り組んでいます。
他にもイベントの企画・実施を通してサポーターに向けたシェアリングサービスの認知拡大につなげたり、こまがわ商店街と長居スタジアムをつなぐMaaSの実証実験をおこない、ホームタウンの活性化を目的とした取り組みを行ってきました。

新型コロナウイルスの感染拡大に伴い「他人との密を避けて車でスタジアムに向かいたい」というサポーターの声を受け、akippaではSNS等で試合時に利用できる駐車場情報の発信や、セレッソ大阪を含むJリーグ・6チームに賛同いただいた「#交通を分散しよう」プロジェクトを実施し、交通の混雑分散にも努めています。

2022年シーズンも、車でスタジアムに向かいたいサポーターの皆さんが安心してスタジアムに向かえることはもちろん、コロナ前のような満員の観客で盛り上がるスタジアムに戻る日に向けて、引き続き予約制駐車場の貸し出しや地域住民に向けたサービス周知を実施いたします。
予約制駐車場の貸し出しを促進することで、駐車場不足による交通混雑を解消し、さらなるアクセス改善につなげるとともに、公共交通機関の混雑緩和にもつなげます。

akippaでは現在21のプロスポーツチームと提携していますが、今後も「困りごと解決企業」としてあらゆるプロスポーツチームと協力し、あらゆる駐車場問題解決に努めてまいります。

※ 取り組みに関するプレスリリースはこちら▼
akippa、2021年シーズンもJ1セレッソ大阪とのオフィシャルスポンサー契約を更新、オフィシャルスポンサーとしてスタジアム周辺の混雑解消を目指して
https://prtimes.jp/main/html/rd/p/000000289.000016205.html

■akippaとは
駐車場のシェアリングサービス。
契約されていない月極駐車場や個人宅の車庫・空き地・商業施設など空いているスペースを、Webまたはアプリから事前予約・事前決済して安く利用できるサービスで、会員数は累計250万人(2022年2月時点、貸主は含まない)を突破。
空いているスペースをお持ちの方は誰でも簡単に登録・貸し出しができ、費用をかけることなく副収入を得ることができます。EV用充電器が設置されている駐車場を含め予約できる駐車場は全国に常時3万件以上あり、順次拡大中です。
駐車場の事前予約は、駐車場を探しながら運転するうろつき交通の削減、排出ガスの削減になることから、脱炭素化社会への貢献にもつながります。
https://www.akippa.com/

【本プレスリリースのお問い合わせはこちら】
akippa株式会社 広報(担当:石川、森村)
東京オフィス:〒101-0033 東京都千代田区神田岩本町4-7  +SHIFT KANDA 2F
大阪オフィス:〒556-0011 大阪府大阪市浪速区難波中2-10-70 なんばパークスタワー14F
Tel:03-6450-6090
Email: pr@akippa.co.jp
URL: https://akippa.co.jp

 

Adblock test (Why?)


からの記事と詳細 ( akippa、2022年シーズンもJ1セレッソ大阪とのオフィシャルスポンサー契約を更新、満員のスタジアムが戻ってくる日に向けて駐車場問題解決に取り組みます。 - PR TIMES )
https://ift.tt/9SJyKv0

SMC、ステップモータコントローラ「JXC Series」発売 - オートメーション新聞ウェブ版

andisendi.blogspot.com

SMCは、ステップモータコントローラの新製品「JXC Series」を発売した。

今回新たに安全規格対応品(JXCLF)を追加。

パラレル入出力で、ステップモータ(サーボDC24)V、ステップデータ数64点など。

https://www.smcworld.com/newproducts/ja-jp/21/jxc_/A

CALEXテクノロジー放射温度計

ロックウェルオートメーション

Adblock test (Why?)


からの記事と詳細 ( SMC、ステップモータコントローラ「JXC Series」発売 - オートメーション新聞ウェブ版 )
https://ift.tt/AZaifzP

Monday, February 21, 2022

バンナム、「シャニマス」で期間限定アイドル入りのユニット別ステップアップガシャを開催!「桑山 千雪」が登場する新規ガシャも | gamebiz - SocialGameInfo

andisendi.blogspot.com

バンダイナムコエンターテインメントは、2月21日、「アイドルマスター シャイニーカラーズ」で「有償限定 限定入りユニットピックアップ特別ステップアップガシャ」を開始した。

 また、SSRプロデュースアイドル「桑山 千雪」が登場する新規ガシャ、「そこは、やわらかく秘密めいた 千雪ガシャ」と「有償限定 そこは、やわらかく秘密めいた 千雪ピックアップガシャ」を開催中。

ほかにも、イベント「Fes Tours」をはじめ、「フェスツアーズおすすめピックアップガシャ」を開催している。

<以下、プレスリリース>

「有償限定 限定入りユニットピックアップ特別ステップアップガシャ」を開催中!

期間限定アイドルを含む、各ユニットアイドルをピックアップした「有償限定 限定入りユニットピックアップ特別ステップアップガシャ」を開催中です!

 6ユニット同時開催となっており、ユニット毎にガシャをご用意しています。

STEP4では最後の1枚に、ピックアップされているユニットのSSRアイドルが確定で登場します!

【開催期間】開催中~2022年2月28日(月) 11:59まで(予定)

新規アイドル登場!「そこは、やわらかく秘密めいた 千雪ガシャ」と、「有償限定 そこは、やわらかく秘密めいた 千雪ピックアップガシャ」を開催中!

「そこは、やわらかく秘密めいた 千雪ガシャ」と、「有償限定 そこは、やわらかく秘密めいた 千雪ピックアップガシャ」を開催中です!

 また、「有償限定 そこは、やわらかく秘密めいた 千雪ピックアップガシャ」では、10連ガシャのご利用10回までSSRプロデュースアイドルの登場時に、「SSRプロデュースアイドル【つよがりのためのララバイ】桑山 千雪」が確定で登場します!

SSRプロデュースアイドル【つよがりのためのララバイ】桑山 千雪

【開催期間】開催中~2022年2月28日(月) 11:59まで(予定)

「フェスツアーズおすすめピックアップガシャ」を開催中!

「フェスツアーズおすすめピックアップガシャ」を開催中です!

「Fes Tours」でおすすめのアイドルをピックアップした期間限定アイドルを含むガシャとなっており、SSRアイドル登場時に、ピックアップ対象のSSRアイドルが確定で登場します。

【開催期間】開催中~2022年3月10日(木) 11:59まで(予定)

イベント「Fes Tours」を開催中!

283プロの全アイドルと協力してツアーを達成していくイベント「Fes Tours」を開催中です!

ミッション報酬で、イベント限定「SRサポートアイドル【殴打、その他の夢について】浅倉 透」や、「八宮 めぐる」の限定衣装など様々な報酬が獲得できます。

【開催期間】開催中~2022年3月10日(木) 11:59まで(予定)

「プロデュースSSRアイドル確定特別パッケージ」を販売中!

「プロデュースSSRアイドル確定特別パッケージ」を販売中です!

▼パッケージ内容

・2022年2月19日 10連ガシャチケット×1

・2022年2月19日 P-SSRアイドル確定ガシャチケット×1

【販売期間】販売中~2022年2月28日(月) 11:59まで(予定)

復刻シナリオイベント「階段の先の君へ」を開催中!

復刻シナリオイベント「階段の先の君へ」を開催中です!

イベント限定ミッションでシナリオポイントをGETすると、イベントショップで「SSRサポートアイドル【坂道だらけのこの街で】西城 樹里」など、様々な報酬がもらえます。

【開催期間】開催中~2022年2月28日(月) 11:59まで(予定)

©BANDAI NAMCO Entertainment Inc.

Adblock test (Why?)


からの記事と詳細 ( バンナム、「シャニマス」で期間限定アイドル入りのユニット別ステップアップガシャを開催!「桑山 千雪」が登場する新規ガシャも | gamebiz - SocialGameInfo )
https://ift.tt/GF1TrZm

憧れの大型バイクに試乗できる!那須MSLステップアップ試乗会 3月19日、20日開催! - バイクニュース - タンデムスタイル

andisendi.blogspot.com

気になっているバイクに出会えるチャンス!

全国に店舗を展開するバイク販売店のレッドバロンが3月19日(土)・20日(日)に、栃木県にある那須モータースポーツランドにて那須MSLステップアップ試乗会を開催する。

2009年からスタートし、14年目となる本イベントは人気モデルを中心に約20台が試乗車としてラインナップする人気の試乗会で、最大の特徴は普通二輪免許で大型バイクへの試乗が可能ということ。

試乗コースはレッドバロンがバイク専用サーキットとしてプロデュースする全量1.2㎞の低中速コース。公道に近いコースレイアウトは街乗りを想定した試乗にも最適なため、大型バイクへステップアップするイメージもきっと膨らませることができるだろう。

大型二輪免許を取りたい、取得している最中で購入するバイクに悩んでいるという人は欲しいバイクを決める近道になる!

参加費はレッドバロンの会員、非会員問わず見舞金制度込みの1,000円とかなりお手頃で、革ツナギは必要なくバイクに乗るにふさわしい格好であれば参加OKだ。

2021年7月開催時はCBR600RRやMT-09などのスポーツモデルほか、V-Strom1050などのツーリングアドベンチャーモデル、さらにZX-25R、GIXXER250などアンダー400モデルもラインナップ。今乗りたい、今後乗りたいバイクを探しているという人は気になるモデルに出会えるチャンス!

試乗車種の詳細はHPのブログでメーカー別で発表されているので気になる人はチェックしてみよう。

試乗会概要
開催日
2022年3月19日(土)・20日(日)
時間
9時~16時(開場 8時、受付開始 8時30分)
料金
参加料金:1日/1,000円(見舞金制度込み)

※四輪駐車場利用は別途料金が必要

その他
服装や詳細は公式サイトから要チェック!

詳細ページ

CONTACT

問い合わせ先
那須モータースポーツランド
電話番号
0287-62-6358
URL
https://ift.tt/4AkdnoB

Adblock test (Why?)


からの記事と詳細 ( 憧れの大型バイクに試乗できる!那須MSLステップアップ試乗会 3月19日、20日開催! - バイクニュース - タンデムスタイル )
https://ift.tt/j1dLibp