本記事では、データウェアハウス(DWH)、ETLプロセス、BIツールなどのアップデート情報や最新トレンドを毎月わかりやすくお届けします。
主要なニュースをピックアップしているので、サクッと最新情報をキャッチアップしたい方は、ぜひご覧ください。
Data Engineering Newsの公開のメール通知をご希望の方はこちらのフォームよりご登録ください。
今月のData Engineering Newsの共同著者は以下のメンバーです。 今川航、 庵原崚生、海藤公紀、鈴木大介、河野浩明、西山徹、廣瀬智史 |
Google BigQueryのニュースまとめ
クロスリージョン データセット レプリケーションが一般提供開始されました
BigQuery データセット レプリケーションを使用すると、2 つの異なるリージョンまたはマルチリージョン間でデータセットの自動レプリケーションを設定できます。
別リージョンにレプリカを作成することでデータセットの可用性が向上します。
またレプリカを使用することでリージョンを跨いだテーブル間の結合が可能になります。
BigQuery MLでgemini-2.0-flash-exp モデルに基づいたリモートモデルを作成できるようになりました
このリモートモデルで ML.GENERATE_TEXT 関数を使用すると、BigQuery に格納されたテキストに対して生成的な自然言語タスクやBigQueryオブジェクトテーブルに格納された音声や動画、文書に対して文字起こしや文書分類などのタスクが実行できます。
本章の執筆者:今川航(Data Analyst / Analytics Engineer)
Snowflakeのニュースまとめ
Snowflake CortexによるDescription生成が一般提供開始されました
SnowsightとSnowflake Cortexの機能を利用して、列、テーブル、ビューなどのDescription(説明)のメタデータを自動生成する機能がGAになりました。
生成方法として、テーブル内部のデータを読み込んだ上での生成を行っている模様のため、既存のテーブル名やカラム名だけでは不足している情報を、LLMを用いることで柔軟に自動生成できます。
詳しい内容についてはリリースノートをご参照ください。
Streamlit 1.39.0が利用可能になりました
Streamlit in Snowflake として動作するStreamlitライブラリのバージョン1.39.0が利用可能になりました。
こちらのバージョンでは1.35.0から1.39.0へのアップデートとなるため、複数バージョンのリリース内容を一挙に利用できるようになります。
リリース内容は、既存の関数のオプション強化に加え、音声入力などの新たな入力や利用可能なフレームワークの増加、ファイルやKubernetesスタイルのシークレットサポートによるセキュリティ強化、その他パフォーマンス強化など複合的に強化がされています。
詳しい内容については、Snowflakeリリースノート、Streamlitリリースノートをご参照ください。
プライベートノートブックが利用可能になりました
Snowsight上で、各ユーザーが保有することができるプライベートノートブックを作成できるようになりました。
できることとして、プライベートノートブックを作成することで、専用のワークスペースが作成され、個人のみが利用することができる専用データベースが作成されます。
これは検証やPoCなどの段階で、1個人のみでデータの検証やモデル構築などを行いたい際に利用することができます。
詳しい内容についてはリリースノートをご参照ください。
Snowpark Container Sericesでブロックストレージが利用可能になりました
現在コンテナ化されたアプリケーションに対して、Snowflake内部ストレージ、ローカルストレージ、メモリストレージが利用できましたが、追加でブロックストレージのボリューム領域を利用できるようになりました。
これによりボリュームの選択肢に幅が広がり、作成・運用できるアプリケーションの幅も広げることができます。
詳しい内容についてはリリースノートをご参照ください。
Terraform Provider Snowflakeでv1がリリースされました
Terraformを用いてSnowflakeオブジェクトをIaC化するためのSnowflake Providerですが、初のメジャーバージョンであるv1系がリリースされました。今まではv0にてv1への一般公開に向けたバージョンリリースへの前段階として位置付けられておりました。
今回v1として安定版をリリースすることで、推奨されるリリースの活用や設計思想の改善などが含まれているとのことです。
今後のSnowflake公式のサポートやGAに向けた活動は引き続き行われるため、今後の動きにも注目する必要があります。
詳しい内容については、公式ドキュメント、ロードマップをご参照ください。
その他アップデート(一部抜粋)
Dynamic Tableのアカウント内最大作成可能数が増加しました
このリリースで、アカウント内に作成できるDynamic Tableの数が、4,000から10,000に増加しました。
これにより、アカウント内でパイプライン数に強化が入り、より多くの後続テーブルの作成を行うことができます。
詳しい内容についてはリリースノートをご参照ください。
SnowparkでJava17の利用がGAになりました
このリリースで、Snowpark で Java 17 がGAになりました。
Java 17 を使用してストアド プロシージャと UDF を作成して実行できるようになります。Snowpark API と JDBC ドライバーも更新され、Java 17 がサポートされるようになりました。
本章の執筆者: 庵原崚生(Senior Data Engineer)
AWSのニュースまとめ
Amazon S3 Tablesが発表されました
Amazon S3 Tablesは、Apache Iceberg形式のテーブルデータに最適化された新しいストレージサービスです。これにより、データレイク上での柔軟なテーブル操作が可能となり、データウェアハウスのような機能を提供します。特に、従来必要だったVACUUMやOPTIMIZEクエリの定期実行などのメンテナンス作業が自動化され、ユーザーの負担が軽減されます。
詳しい内容については、公式の最新情報ページをご参照ください。
AWS Glue 5.0が一般提供開始されました
AWS Glue 5.0では、Apache Spark 3.5.2、Python 3.11、Java 17へのエンジンアップグレードが行われ、パフォーマンスとセキュリティが向上しました。さらに、Apache Hudi、Apache Iceberg、Delta Lakeなどのオープンテーブルフォーマットのサポートが強化され、データレイクにおける高度な要件に対応しています。
詳しい内容については、公式の最新情報ページをご参照ください。
AWS Glue データカタログで新規テーブルに対する統計情報の自動生成が実装されました
AWS Glue データカタログは、新たに作成されたテーブルの統計情報を自動的に生成する機能を追加しました。これにより、ユーザーは手動で統計情報を作成・更新する必要がなくなり、データの整合性とクエリパフォーマンスの向上が期待できます。この機能は、Lake Formation コンソールでテーブル統計情報を有効にし、カタログ設定を行うことで利用可能となります。
詳しい内容については、公式の最新情報ページをご参照ください。
Amazon Q in QuickSight のシナリオ分析機能が追加されました
QuickSightのAI支援データ分析機能であるAmazon Qに、新たに「シナリオ分析」機能が追加されました。ユーザーは自然言語で質問を入力するだけで、複雑なデータ分析を迅速に実行できます。この機能は、米国東部(バージニア北部)と米国西部(オレゴン)のAWSリージョンでプレビュー提供されています。
詳しい内容については、公式の最新情報ページをご参照ください。
本章の執筆者: 海藤 公紀(Data Engineer)
Looker Studioのニュースまとめ
Looker Studio Labsが公開されました
Cloud Skills Boost LabsでLooker StudioとLooker Studio Proの基礎が学べるようになりました
Looker Studio管理コンソールの設定が更新されました
「データソースアクセスのオーナー資格情報を編集者が設定できるようにする」設定は、「この組織のユーザーがすべてのデータソースの資格情報所有者になることを許可する」 に名前が変更されました。この設定は、一部のユーザーにとって問題が発生する可能性のある、以下の動作の変更を示しています。
Looker Studio管理者がこの設定をオフにした場合、組織内にデータソース所有者が存在し、オーナーの資格情報を使用するように構成されていた既存のデータソースは、閲覧者の資格情報を使用する必要があります。データへのアクセス権がないユーザーは、Looker Studioコンテンツへのアクセス権を失う可能性があります。この設定を再度有効にすると、元のオーナーの資格情報が復元されます。
この設定の詳細については、公式ドキュメントをご覧ください。
データのプレビューが利用できるようになりました
以下のデータソースのデータソースエディタで、フィールド内のデータがプレビューできるようになりました。
- Google BigQuery
- Googleスプレッドシート
- Looker
- Microsoft Excel
- ファイルのアップロード(CSV)
データソースのフィールドの非表示/削除機能が改善されました
組織の機密情報へのアクセスを制御しながら、データの民主化を促進できるよう、以下の機能が追加されました。
- データソースから任意のフィールドを削除できるようになりました。(以前は計算フィールドのみ削除できました。)
- データソースからフィールドを非表示または削除すると、レポート閲覧者はそのフィールドのメタデータにアクセスできなくなります。フィールドメタデータには、フィールド名やそのフィールドにアクセスするために使用されるコネクタの種類などの情報が含まれます。
チャートのタイトルが自動生成できるようになりました
チャートの「タイトルを表示」オプションを有効にすると、Looker Studioはデフォルトでチャートタイトルを自動生成します。タイトルは、チャートの種類と使用されているフィールドの両方に基づいています。カスタムタイトルを設定するには、「タイトル」フィールドに入力します。
ファネルグラフ(逆三角形)を比例した高さで表示できるようになりました
スタイルオプションの「比例した高さを使用する」を設定することで、カテゴリの値に比例したバーの高さでファネルグラフを表示できるようになりました。
スコアカードでディメンションを選択できるようになりました
スコアカードチャートで、メインのフィールドとしてディメンションと指標のいずれを表示するかを選択できるようになりました。ディメンションを選択した場合、ディメンション値のソートに別のフィールドを選択することもできます。
日付または時刻データ型のディメンションに対するフィルターの新しい条件が追加されました
レポートエディターは、日付または時刻データ型のディメンションを持つフィルター条件に、以下の値や時間単位を指定できるようになりました。
- 直近(数値+秒~年までの時間単位)
- 次の時以前に含まれる(数値+年前~年後の時間単位)
- 次の時以降に含まれる(数値+年前~年後の時間単位)
- 前の(日~年の時間単位)
- 今(日~年の時間単位)
- 次の(日~年の時間単位)
- 月(月の数値+年の数値)
- 次の年に含まれる(数値)
外部リンク遷移時に警告が表示されるようになりました
ユーザーが外部リンクをクリックすると、リダイレクト通知画面が表示されるようになりました。
新しい検索広告360コネクタで新たなフィールドが利用可能になりました
以下のフィールドが利用可能になりました。
- コンバージョン(コンバージョン時間別)
- すべてのコンバージョン率
- 顧客アカウントコンバージョンあたりの費用
- Google 広告オークションタイム入札
- 通貨コード
元のコンバージョン値フィールドは変更されず、正しいフィールド名のままになります。
Lookerコネクタでフィルターが追加されました
Lookerデータソースは、日付または時刻データ型のディメンションで「一致(詳細)」フィルターオプションをサポートするようになりました。
新たなパートナーコネクタが追加されました
以下のパートナーコネクタがLooker Studioレポートギャラリーに追加されました。
- Heureka.cz náklady by METRIXANA
- Heureka.cz Sortiment report by METRIXANA
- Shoptet produkty by METRIXANA
- Shoptet objednávky by METRIXANA
- BigQuery by Windsor.ai
- LinkedIn Page Analytics by Doodlytics
- Vibe by Windsor.ai
- Partnerize by Windsor.ai
- Adtraction by Windsor.ai
- MNTN by Windsor.ai
- Income Access by Windsor.ai
- Square by Windsor.ai
- Calendly by The Data Students
- Cin7 Core by Jivrus Technologies
- Pipedrive by Supermetrics
- TrueClicks PPC Audit by TrueClicks
- J+Search – Analytics by Jellyfish
- Mixpanel by Windsor.ai
- ShareASale by Windsor.ai
- Branch.io by Windsor.ai
- Marcode by Marcode
- Search Ads 360 by Supermetrics
- WorkMeter by WorkMeter, S.L.
- Heureka.sk náklady by METRIXANA
- LinkedIn Ads Analytics by Doodlytics
- Pinterest Ads by Detrics
- Recharge by Windsor.ai
- TikTok Organic by Chartica.co.uk
- Google Ads – Cratos.ai by Cratos.software
- Klaviyo by Adzviser
- Google Merchant Center by Adzviser
- Google My Business by Adzviser
- Mailchimp by Adzviser
- WooCommerce by Adzviser
- Shopify by Adzviser
- Microsoft Ads by Adzviser
- Awin by Catchr.io
- Strava by Windsor.ai
- Harvest by Windsor.ai
- CoinGecko Coins by Windsor.ai
- Whatagraph by Whatagraph.com
- Simpli.fi by Windsor.ai
- Line Ads by Windsor.ai
- BigCommerce by Supermetrics.com
- Zoho CRM (ZOHO) by Supermetrics.com
- Omnisend by Windsor.ai
- Prestashop by Catchr.io
本章の執筆者:鈴木大介(Product Marketing Manager)
新しい検索広告360コネクタのフィールド名が変更されました
名前の競合を解決するため、フィールド名が変更されました。
- 以前は「コンバージョン値」という名前だったフィールドが、 「クライアントアカウントのコンバージョン値」に変更されました。
- 以前は「コンバージョン値 / クリック」という名前だったフィールドが、「クライアントアカウントのコンバージョン値 / クリック」に変更されました。
Looker Studio Proのニュースまとめ
会話分析のガイドが利用可能になりました
新しい教育リソースがLooker Studioで利用可能になりました。Gemini in Lookerの機能である、Conversational Analyticsの使い方を学ぶことができます。
Gemini in Lookerでサンプルプロンプトが提案されるようになりました
Geminiの支援で計算フィールドを作成する際、Looker Studioはサンプルプロンプトを提案するようになりました。
本章の執筆者:鈴木大介(Product Marketing Manager)
dbtのニュースまとめ
dbt Core v1.9が一般提供開始されました
incremental modelにmicrobatch strategyが使用できるようになり、snapshotの設定がより柔軟になりました。
モデルのincremental materialization手法のstrategyとしてmicrobatchが設定可能になりました
参照しているソースをバッチに分割し、バッチ単位でSQL変換・既存テーブルへのマージが宣言的に処理可能になりました。
<画像>
- テーブルのデータ量があまりに巨大すぎると、incrementalモデルのfull-refreshやbackfill時にdwh側のリソース制約上出来なかったケースがありましたが、バッチ分割により技術的に可能になりました。
- 従来のincrementalモデルのstrategyのような、参照するupstreamテーブルの新しいレコードをどう検知するかといった点を考慮しなくてよくなり、backfillも簡単に実行可能になりました。
<画像>
snapshotをymlで実装できるようになり、設定項目が追加されました
snapshotの設定項目として以下の3つが追加されました。
dbt_valid_to_current
同じidのレコードのうち現在のレコードについては、dbt_valid_toカラムにはNULL値が入っていましたが、この値を任意の値に設定できるようになりました。
他テーブルの日付列とJOINしたい場合や日付範囲での絞り込みが必要なケースなどで恩恵を受けられます。
<画像>
snapshot_meta_column_names
従来snapshot作成時にdbt側が自動でつけていたmeta情報の列の名前を自由に設定できるようになりました。
組織独自の命名規則などを柔軟にsnapshot機能にも適用できるようになります。
hard_deletes
ソースで削除された行についてのsnapshotでの取り扱いをより柔軟に対処することができます。
従来は削除を無視するか、削除されたIDについての全ての行を削除するかの2通りしか選択できませんでしたが、削除されたという履歴を新しいレコードとして追加するという選択肢が用意されました。
変更履歴も削除履歴も格納できることで、ディメンションの過去に遡る分析がより柔軟に行えます。
<画像>
詳しい内容についてはリリースノートをご参照ください。
本章の執筆者:河野 浩明(Data Engineer)
Tableauのニュースまとめ
新しいリージョンでpodがサポートされました
US East – VirginiaとAsia Pacific – Singaporeの2つのLocationでpodが使用できるようになりました。
詳しい内容についてはリリースノートをご参照ください。
TableauのAI機能のトライアルが可能になりました
Tableau Cloud Web AuthoringとTableau Prepにて、1時間あたりのリクエスト回数の制限付きではありますがトライアル期間中は無料で一部のAI機能を解放できます。
詳しい内容についてはリリースノートをご参照ください。
本章の執筆者:河野浩明(Data Engineer)
Databricksのニュースまとめ
新しいノートブックのデフォルト形式がIPYNB(Jupyter)形式に変更されました
Databricksワークスペースで新しく作成するノートブックのデフォルト形式が、IPYNB(Jupyter)形式に変更されました。以前のデフォルトはSource形式(.py, .sql, .scala, .r)でした。
同一メタストア内でクリーンルームをテスト可能になりました
クリーンルームの本格的な導入前に、同じメタストア内からコラボレーターを追加してテストできるようになりました。
Jobs APIバージョン2.2がリリースされました
Jobs APIがバージョン2.1から2.2に更新されました。新バージョンでは、ジョブキューのデフォルト設定や大量のフィールドを持つレスポンスのページング機能が強化されています。
Unity Catalogの「MANAGE」権限がパブリックプレビューになりました
Unity Catalogの管理可能オブジェクトに対して「MANAGE」権限を付与できるようになりました。この権限により、オブジェクトの削除、名前変更、権限管理、所有権移転などの操作が可能です。
詳しくはこちらをご参照ください。
ストリーミングジョブ実行のメトリクス表示機能がパブリックプレビューになりました
Databricks Jobs UIでジョブ実行のメトリクスを確認できるようになりました。Spark Structured Streaming対応ソースで利用可能です。
利用可能なメトリクスについてはこちらをご参照ください。
Delta Live Tablesパイプライン更新のストリーミングメトリクス表示機能がパブリックプレビューになりました
Delta Live Tables UIでパイプライン更新のメトリクスを確認できるようになりました。Spark Structured Streaming対応ソースで利用できます。
ストリーミングメトリクスについてはこちらをご参照ください。
Lakehouse FederationがOracleをパブリックプレビューにてサポートしました
Delta Live Tablesパイプラインのクエリパフォーマンスをモニタリングするためのツールがアップデートされました。
詳細はこちらをご覧ください。
Unity CatalogがHive MetastoreおよびAWS Glueに対応しました
Unity Catalogを使用して、Hive MetastoreやAWS Glueに登録されたデータを管理できるようになりました。
詳細はこちらをご覧ください。
ai_query 機能にレスポンスフォーマットを指定できる機能が追加されました
ai_query
で responseFormat
フィールドを使用して、応答形式を指定できるようになりました。
詳しくはこちらをご参照ください。
Delta Sharingテーブルの履歴共有で読み取りパフォーマンスを向上させる機能がパブリックプレビューになりました
Delta Sharingの履歴共有機能を有効化することで、Databricks間のテーブル共有パフォーマンスが向上させることができるようになりました。
詳しくはこちらをご参照ください。
Python code executor for AI agentsがパブリックプレビューになりました
AIエージェントがPythonコードを実行できるようにするUnity Catalog関数が新たに提供されました。このツールを使うことで、エージェントの機能を言語生成以外にも拡張可能です。
詳しくはこちらをご参照ください。
Mosaic AIモデルトレーニング – サーバーレス予測がパブリックプレビューになりました
Mosaic AIのモデルトレーニングにおいて、AutoMLの予測機能がサーバーレス計算や深層学習アルゴリズムに対応しました。
synthetic evaluation sets機能でAIエージェント評価を簡素化できるようになりました
synthetic evaluation setsで既存のドキュメントから代表的な評価セットを生成できるようになりました。synthetic generation APIはAIエージェントの評価と統合されており、人間によるラベル付けというコストのかかるプロセスを経ることなく、エージェントの応答を評価できます。
詳しくはこちらをご参照ください。
外部グループがラベル付けされ不変になりました
IdPで作成された外部グループが「External」と明示的にラベル付けされ、デフォルトではDatabricksコンソールから編集できなくなりました。必要に応じてアカウント管理者が不変設定を無効化できます。
グループに計算リソースを割り当て可能にする機能がパブリックプレビューになりました
新しい「Dedicated access mode」により、計算リソースをグループまたは単一ユーザーに割り当て可能にする機能がパブリックプレビューにて利用可能になりました。また、これによりシンプル化されたcompute UIも提供されます。
シングルサインオン未設定のアカウントに統一ログインが一斉導入されました
シングルサインオン(SSO)が未設定のすべてのアカウントに統一ログインが自動的に有効化されました。既存のSSO設定を持たないワークスペースではこれを無効化できません。
Serverless egress controlでアウトバウンドネットワーク接続を管理できるようになりました
Serverless egress controlにより、インターネット接続先を特定の宛先に制限できるようになりました。
詳しくはこちらをご参照ください。
Network access eventsシステムテーブルがパブリックプレビューになりました
DatabricksのシステムテーブルにNetwork access eventsテーブルが追加されました。このテーブルは、インターネットアクセスが拒否された際にイベントを記録します。
テーブルの詳細についてはこちらをご参照ください。
Personal Access Tokenの監視と無効化がパブリックプレビューになりました
アカウント管理者は、アカウントコンソールでPersonal Access Tokenのレポートを確認し、監視や無効化が可能になりました。
詳しくはこちらをご参照ください。
Personal Access Tokenの最大有効期間が730日(2年)になりました
新規発行されるDatabricksの個人用アクセストークンの最大有効期間が730日(2年)に設定されました。これまでの無期限発行は廃止されます。
本章の執筆者:西山徹(Senior Product Manager)
TROCCO®のニュースまとめ
転送元freee会計・ 転送元SmartHRが追加されました
転送元freee会計・転送元SmartHRを追加しました。
詳しくは、それぞれ以下のページを参照ください。
転送先kintoneでユーザー選択・組織選択・グループ選択フィールドへ転送できるようになりました
転送設定STEP2出力オプションで指定できるデータ型に下記のフィールドを追加しました。
- USER_SELECT:ユーザー選択
- ORGANIZATION_SELECT:組織選択
- GROUP_SELECT:グループ選択
転送方法について、詳しくはデータ型にUSER_SELECT・ORGANIZATION_SELECT・GROUP_SELECTを選択したい場合を参照ください。
ワークフロー定義一覧でカスタム変数ループ設定による絞り込みができるようになりました
ワークフロー定義一覧の絞り込み条件にループ設定を追加しました。
カスタム変数のループ設定の有無によって、ワークフロー定義を絞り込むことができます。
TROCCO APIにチームAPIが追加されました
TROCCO APIでチームに関する以下の操作ができるようになりました。
TROCCO APIにデータマート定義APIが正式リリースされました
データマート定義APIは、これまで対象データウェアハウスとしてBigQueryのみをサポートしていましたが、新たにSnowflakeにも対応しました。
これに伴い、ベータ版から正式版としてリリースしました。
Terraform Provider for TROCCOが正式リリースされました
TROCCO APIを利用しTROCCOのリソースをコード管理するためのツールとして、Terraform Provider for TROCCOを正式リリースしました。
本記事執筆時点(2025年1月14日)では以下のリソースに対応しています。今後APIの拡充に伴いTerraform Provider for TROCCOも対応範囲を拡充していきます。
- 接続情報 ※BigQueryとSnowflakeのみ対応
- データマート定義※BigQueryのみ
- チーム定義
- ユーザー定義
コネクタAPIアップデート: 転送元Google Ads
転送時に使用するGoogle Ads APIのバージョンを、v16からv18へアップデートしました。
新バージョンについては、Google Ads APIのドキュメントを参照ください
コネクタAPIアップデート: 転送元Facebook Ad クリエイティブ・転送元Facebook Ad Insights
転送時に使用するFacebook APIのバージョンを、v18からv21へアップデートしました。
新バージョンについては、Meta for Developersのドキュメントを参照ください。
コネクタAPIアップデート: 転送元Shopify
転送時に使用するShopify APIのバージョンを、2024-01から2024-04へアップデートしました。
新バージョンについては、Shopify APIのドキュメントを参照ください。
本章の執筆者:西山徹(Senior Product Manager)
COMETA®のニュースまとめ
カスタムデータベース連携機能がリリースされ、さまざまなデータベースのメタデータ管理が可能になりました
データベース内の階層構造を記述したCSVファイルをAmazon S3バケットに格納することで、COMETA上にデータストアを作成でき、メタデータ管理が可能になります。インポートのためのメタデータを各種データベースから取得するSQLクエリは、ドキュメントにまとまっているのでご参照ください。具体的には下記データベースのクエリがございます。
- dbtメタデータ
- MySQL
- PostgreSQL
- Amazon Redshift
- Amazon Athena
- Databricks
- Oracle Database
- Microsoft SQL Server
- Treasure Data
また、TROCCOでデータ転送設定を作成することで各種データベースからのメタデータの取得と、COMETAへの連携が自動化できます。
詳細については、カスタムデータベース連携のドキュメントをご参照ください。
<画像>
データストア詳細画面でアセット取り込みジョブの実行履歴が確認できるようになりました
データストア詳細画面において、アセット取り込みジョブの直近5件の実行履歴が表示されるようになりました。
ジョブ実行履歴をクリックするとジョブ詳細画面が開き、実行サマリーや実行ログ(ログがある場合のみ)を確認できます。
<画像>
本章の執筆者:廣瀬智史(Head of of Product Management)
Data Engineering Newsは毎月更新でお届けいたします。
記事公開の新着メール通知をご希望の方はこちらのフォームよりご登録ください。