Coinbase、NFTコレクションをブラウザウォレットで閲覧可能に

暗号資産取引所で知られるCoinbase(コインベース)は、「Coinbase Wallet(コインベース・ウォレット)」というブランドのもと、2つのセルフカストディウォレットにも取り組んできた。このタイプのウォレットでは、秘密鍵がデバイスに保存されるため、ユーザー自身が暗号資産を管理できる。 同社は現在、NFT(非代替性トークン)をデスクトップブラウザに導入しようとしている。デスクトップブラウザでCoinbase Walletを使っている人は、まもなく「NFTs」という新しいタブが表示され、自分のウォレットアドレスに紐づくNFTにアクセスできるようになる。 RainbowやArgent、またモバイルのCoinbase Walletなど、多くのモバイルウォレットでNFTコレクションを見ることができるが、ブラウザ拡張機能には通常、ネイティブなNFTギャラリー機能はない。この機能が数日中に導入される。 画像クレジット:Coinbase NFTの新機能に加え、Coinbaseはテストネットと代替ネットワークのサポート強化にも取り組んでいる。Coinbase Walletではすでに、複数のネットワークを切り替える設定が可能だが、加えて、Arbitrum、Avalanche、Binance Smart Chain、Fantom、Optimism、Polygon、xdaiなどサポートしているすべてのネットワークでトークン残高が表示されるようになる。保有する暗号資産のための統合受信トレイのようなものだ。 Coinbase WalletはEIP-3085(EIPは「Ethereum Improvement Proposal」の略)にも対応する。Coinbase WalletがEIP-3085もサポートする分散型アプリケーションにも対応するようになれば、エンドユーザーのエクスペリエンス改善につながるだろう。 EIP-3085では、DApp(ブロックチェーンを使用した分散型アプリケーション)開発者が、あるトランザクションに対し特定のネットワークを提示できる。つまり、複数のネットワークとのやり取りが容易になる。 セルフカストディウォレットを使用する主な利点は、アプリで利用可能なものに制限されないということだ。WalletLinkやWalletConnectなどを使って、サードパーティのDAppに接続できる。 しかし、CoinbaseはCoinbase Walletのインターフェースに複数の分散型取引所を直接統合している。興味深いことに、Coinbaseはそれらの取引にUniswapと0xを使用している。Coinbaseは、ネイティブのDEX機能による取引で1%の手数料を取っている。 多くの点で、Coinbase WalletはCoinbaseのWeb3イニシアティブのように感じられる。同社は、暗号資産ユーザーの知識が増え、多くのDAppを利用するようになったときに、なお重要な存在でありたいと考えている。 MetaMaskは、初めてNFTを購入しようとする新しい暗号資産ユーザーにかなり人気がある。しかし、いったん使い始めると、これは良くないとユーザーはいう。Coinbaseは立ち止まることを望んでいない。暗号資産ウォレットスタートアップのBRDをアクハイヤー(人材獲得を目的とした買収)した今、独自のNFTマーケットプレイスを立ち上げる予定だ。 情報開示:筆者はさまざまな暗号資産を少額保有している。 関連記事・Coinbaseが暗号資産ウォレットBRDを人材獲得買収・CoinbaseがNFT市場参入を発表、OpenSeaに対抗するマーケットプレイスを準備中

企業がデータから得る各種予測をAIの力で洗練強化するContinual

今日のデータウェアハウス中心型のデータスタックに運用レベルのAIを導入しようとするContinualが米国時間12月16日、Amplify Partnersがリードするシードラウンドで400万ドル(約4億5000万円)を調達したことを発表した。このラウンドには、Illuminate VenturesとEssence、Wayfinder、およびData Community Fundが参加した。この発表にともないContinualは、そのサービスを公開ベータで提供を開始した。その前の数カ月は、一定数の選ばれた顧客とともにテストを行っていた。 データウェアハウジング業界は売上ベースでは大きいが、実際にはSnowflakeやAmazon、Redshift、BigQuery、そしてDatabricksなど少数の企業が支配している。そのためこの市場は、それらのデータに対して独自のイノベーションを構築しようとするスタートアップにとって、取り組みやすい舞台だ。Continualの場合それは、企業に、予測モデルを構築するためのアクセスしやすいツールを提供することだ。 画像クレジット:Continual ContinualのCEOで共同創業者のTristan Zajonc(トリスタン・ザイコン)氏は「Continualを利用すると今日的なデータチームがデータウェアハウスに対して、直接、しかも継続的にモデルの構築とメンテナンスと改良ができるようになります。実際、最も多いユースケースは、顧客チャーン(の動態把握 / 予測)やリードスコアリング(見込み客ランキング)、プロダクトレコメンデーション、在庫予測、予測的メンテナンス、サービス、オートメーションなどです。基本的にContinuallyは予測モデルと予測の両方をメンテナンスし、そのためにデータウェアハウスのデータを利用して、予測をそこへ書き戻す」という。 画像クレジット:Continual ザイコン氏の以前のスタートアップであるSenseは、初期のエンタープライズプラットフォームで2016年にClouderaが買収した。また彼の共同創業者であるTyler Kohn(タイラー・コーン)氏はパーソナライゼーションサービスのRichRelevanceをつくり、2019年にManthan Systemに買収された。これらのスタートアップを創業しているとき2人の共同創業者は、エンタープライズにおけるAIプロジェクトの失敗率が高いことに気づいた。多くの場合、そんなプロジェクトは大きなチームを要し、プロジェクトの実行に大量のリソースを消費した。そしてその間、必要なAIのインフラストラクチャは果てしなく複雑になっていった。 「ビッグデータ(big data)の時代がビッグ複雑性(big complexity)の時代に変わろうとしていました。この問題を解決するために私たちはContinualを創業し、エンタープライズの運用AIを抜本的に単純化しようとしています。私たちは、クラウドデータウェアハウスの登場で、エンタープライズAIの構想を一新し、抜本的に単純化すべき機会が訪れていることを理解していました。データのインフラストラクチャには標準化が必要であり、今日的なデータスタックが勃興し広く普及し始めていました」とザイコン氏はいう。 Continualを使うとデータチームは、彼らの既存のSQLやdbt(data build tool)のスキルを再利用できる。そのために必要なのは、データウェアハウスにContinualを接続して、予測したい機能とモデルを宣言的に定義することだ。その際、ちょっと便利な機能は、予測をデータウェアハウスに保存してデベロッパーやアナリストが必要に応じてすぐにアクセスできることだ。 現在、このプラットフォームはSnowflake、Redshift、BigQuery、Databricksをサポートしており、チームの計画としては今後はdbtとこれらのデータプラットフォームとのパートナーシップを徐々に拡張していきたいという。ザイコン氏によれば、同社はデータ統合プラットフォームになる気はないとのことだ。 Amplify PartnersのDavid Beyer(デビッド・ベイヤー)氏は次のように述べている。「データから得られる予測的洞察を間断なく改善し続けることは、企業が効率的に稼働し、顧客への奉仕をより充実していくために欠かせません。しかしながらAIの運用化はごく一部の高度な企業を除いては永遠の課題であり続けています。Continualはデータチームの仕事の現場、すなわちクラウドデータウェアハウスに入り込み、これまでのやり方が要求する時間の数十分の一の時間で、彼らによる予測モデルの構築とデプロイと継続的改善ができるようにします。私たちが彼らに投資したのは、彼らのアプローチが抜本的に新しくて、AIをエンタープライズで活用するための正しいやり方と信じているからです」。

【コラム】マイニング業界の転換で訪れる、暗号資産のグリーンな夜明け

気候変動は現代における主要な問題だ。政策立案者から個人まで、誰もが持続可能性とグリーンな行動が社会に浸透するために自らの役割を全うする責任を持っている。 事実、米国から中国まで世界中の政府が気候変動に積極的に取り組んでおり、最近行われた2021年国連気候変動会議、COP26は、 パリ協定の目標に向けた気候変動対策の推進力となっている。 企業もまた大きな責任を負うべく前進を続けており、今や多くの投資家が、財務実績だけでは成功の指標に足り得ないと考え始めている。ESG(環境・社会・ガバナンス)指標、即ち負の外部性(negative externalities)が、社会に役立つ事業活動の真の価値を決めるためにいっそう考慮されるようになった。 その中で、金融インフラを再活性化させるプロセスがますます注目を集めている。Bitcoin(ビットコイン)をはじめとするデジタル資産は、ESG基準をどの程度満たしているのだろうか?この疑問は暗号資産の利用がいっそう幅広い層に行き渡るにつれ、これまでになく重要になってきている。米国では複数のBitcoin先物ETF(上場投資信託)が取引されおり、機関投資家の関与も最高水準に達し、 Standard Chartered(スタンダードチャータード)、 State Street(ステート・ストリート)、Citibank(シティバンク)をはじめとする多くの世界最大級の金融機関が、静かにこの分野で準備を進めている。 規制の明確化も世界でさまざまな人々の参加を可能にし、それぞれのデジタル資産戦略を加速させている。EUの広範囲にわたるMarket in Crypto-assets(暗号資産市場、MiCA)規制フレームワークは、欧州議会で法制化手続きが進められている。一方米国でも、Gary Gensler(ゲイリー・ジェンスラー)氏率いる証券取引委員会が、ステーブルコインと分散型金融(DeFi)のためのフレームワークを明確化する意志を表明している。 デジタル資産が真に主流となり、全世界の投資家のポートフォリオで地位を固めるためには、各国政府と企業が従うべきものと同じ厳格なESG基準の対象にならなくてはいけない。業界が徐々にこの要件を受け入れ、高まる受け入れに呼応して環境自主規制のプロセスを強化していることは特筆すべきだろう。 Bitcoin Mining Council(ビットコイン・マイニング協議会)などの組織は、報告基準を高めることで業界の透明性向上に取り組んでいる。多くの暗号資産ネイティブ組織も、Crypto Climate Accord(暗号資産気候協定)に参加して、暗号資産関連活動にともなう電力消費の2030年までの排出量実質ゼロを誓約している。、しかし、こうしたあらゆる活動にとって、おそらくデジタル資産のエネルギー効率化における唯一最大の貢献は、業界の制御がまったく届かないところで決定されている。2021年5月、中国国務院は暗号資産のマイニングおよび取引を全面的に禁止した。かつて全世界Bitcoinマイニングハッシュレートの44%を占めていた暗号マイニング(採掘)の世界拠点でのこの決定は、採掘者の他の司法権の下への大量脱出を呼び起こした。 これはBitcoinマイニング業界のエネルギー効率化にとって極めて大きな意味をもつ動きだ。電力の石炭依存が高い中国経済を離れ、再生可能なエネルギー形態の多い他の地域へ移動することを意味しているからだ。 北米はこの動きの大きな受益者であり、マイニングハッシュレートの米国シェアは、 4月の17%から8月は35%へと上昇した。カナダのマイニングハッシュレート、9.5%を加えて、今や北米は世界供給の50%近くを占め、全世界マイニングハッシュレートを支配している。 米国のエネルギー生産は全州に分散しているが、この転換はBitcoinマイニングの持続可能性にとって朗報だ。米国は再生可能エネルギーが豊富であることに加えて、大規模なマイニング会社は薄利な業界で競争しており、主要な変動コストはエネルギーであることから、インセンティブは最安値のエネルギー源に移行することであり、その大部分が再生可能エネルギーだという事実がある。 たとえばニューヨーク州はBitcoinハッシュレートで最大級のシェアをもつ州の1つであり、Foundry

MetaがAWSを戦略的クラウドプロバイダーに選定、Meta AIの研究開発やPyTorch利用企業のパフォーマンスを強化

Amazon Web Services(AWS)は米国時間12月1日、Metaが戦略的クラウドプロバイダーとしてAWSを選定したことを発表した。 MetaとAWSはこの5年間で連携する範囲を拡大してきた。今回の合意を基に、AWSは引き続きMetaが取り組む研究開発をサポートし、イノベーションの促進、サードパーティやオープンソースソフトウェア(OSS)コミュニティとのコラボレーションを支援する。 Metaは、AWSの実績あるインフラストラクチャと包括的な機能を活用し、既存オンプレミスのインフラを補完するとともに、AWSが提供するコンピュート、ストレージ、データベース、セキュリティのサービス利用を拡大し、クラウドにおけるプライバシー、信頼性、拡張性を実現するという。サードパーティ企業とのコラボレーションをAWS上で行うとともに、すでにAWSを利用している企業の買収支援にも活用する。 またMetaは、AWSのコンピュートサービスを活かし、Meta AIグループの人工知能の研究開発を加速させる。AWS上でOSSの機械学習フレームワーク「PyTorch」を活用する顧客企業のパフォーマンスを向上させ、開発者による人工知能と機械学習モデルの構築・トレーニング・デプロイ・運用の加速を目指す。 AWSとMetaは、機械学習モデルの大規模な構築、トレーニング、デプロイに向けて、PyTorchのパフォーマンスならびにAmazon Elastic Compute Cloud(Amazon EC2)や、機械学習専用に構築された機能を提供するAmazon SageMakerなどのコアマネージドサービスとの統合において、さらなる最適化を進める。自然言語処理やコンピュータビジョンのための大規模な深層学習モデルを開発者が容易に構築できるよう、両社はAWS上でのPyTorch活用を促進し、AIアクセラレーターの分散システム全体で大規模なトレーニングジョブのオーケストレーションを可能にする。 また両社は、PyTorch上での推論のパフォーマンス、説明可能性、コストを向上させるネイティブツールを共同で提供。本番環境へのモデル展開を簡素化するため、PyTorchのネイティブなサービングエンジンであるTorchServeを強化し、学習したPyTorchモデルを容易に一括展開できるようにするという。これらのOSSへの貢献をベースにAWS上でパフォーマンスを最適化し、大規模な深層学習モデルの研究から本番環境までをより迅速に導入するための支援を展開する。 Original Post>

CNDT2021、Kubernetesのマルチテナントを実装したIIJのSREが語る運用の勘所

CNDT2021から、Kubernetes上でマルチテナント環境を実装した事例のセッションを紹介する。これは株式会社インターネットイニシアティブ(以下、IIJ)のSREである田口景介氏が行ったもので「シングルテナント・マルチクラスタ vs マルチテナント・シングルクラスタ論争 決着のとき」というタイトルが示すように、シングルテナントとマルチテナントの利点や欠点などを実際に実装した経験を元に解説するものだ。 単一のクラスタ上で実装されるKubernetesでは、IIJのようなインターネットサービスを提供するサービスプロバイダーなどにおいては不十分であることは理解できる。またサーバーハードウェアのリソースをフルに活用できていないことから、より効率的な運用のために複数のテナントを共存させることでハードウェアリソースを効率的に運用できることを目指すもの理にかなっていると言える。 直近のKubeCon NA 2021では、Cluster APIへのマルチクラスタの機能の追加についてキーノートでも紹介された。またKubeCon EU 2021やKubeCon China 2019でも、その実装方法についてRed HatやHuaweiなどのエンジニアによるセッションが行われているように、マルチクラスタ、マルチテナントに関する議論は活発な状況だ。 KubeCon EU 2021でのRed Hatが提案するkcpに関する記事:KubeCon EU 2021でRed Hatが発表した複数のKubernetesを制御するkcpを紹介 KubeCon China 2019でのHuaweiのセッションに関する記事:KubeCon China:サーバーレスとマルチテナンシーのセッションに注目

CNDT2021、ミクシィのSREによるEKS移行の概要を解説するセッションを紹介

CloudNative Days Tokyo 2021から、株式会社ミクシィのセッションを紹介する。家族で写真動画を共有する「家族アルバム みてね」の運用担当エンジニアが、仮想マシンからコンテナへの移行、インフラストラクチャーアズコード(IaC)を実践するための改善点、オブザーバービリティ向上のためのNew Relic導入などを解説した。タイトルは「全世界のユーザーが快適に利用できるクラウドネイティブなシステムを目指して」、担当したのはミクシィのSREである清水勲氏だ。 ミクシィのSRE、清水勲氏がセッションを担当 サービスの紹介の後に、世界を対象にしたサービスを運用する際の課題を解説。ここでは東京にメインのサーバーが置かれている状況で世界中からのアクセスをどうやって高速化するのか、問題発生時の解決のための工夫などについて解説を行った。 SREとしての課題を解説 より安定したネットワークを実現するために、ミクシィが利用しているAWSの機能であるS3 Transfer Accelerationを使って、エッジである日本以外の国や地域からのアクセスを高速化したことを紹介。 S3 Transfer Accelerationを利用 これは海外から直接東京リージョンのS3にデータを送信するのではなく、エッジのロケーションのストレージで一旦受けてから東京リージョンのストレージに高速送信をすることで、ユーザー体験としての高速化を目指したものといえるだろう。 また通信状況や端末の環境によって起因するトラブルや遅延を検知するために、New Relicのオブザーバービリティプラットフォームを採用していることを解説した。 端末側でメトリクスを採取する仕組みを導入 ユーザーがアップロードするデータはS3に向けて送信され、メトリクスはNew Relicのクラウドサービスに向けて送信することで、サービスの運用担当者はNew Relicのダッシュボードからシステムの状態を確認することができる。 また各国で実施されるプロモーションなどの結果として起きる突発的なアクセス増加に対応するために、従来はAWS OpsWorks上で実装されたChefによって新規の仮想マシンがデプロイされる方式を改め、コンテナ化されたアプリケーションが即座にデプロイされる形式によって高速化が実現できたと説明した。 OpsWorksからコンテナでアプリケーションがデプロイされる方式に移行

Azureに対する史上最大級のDDoS攻撃が突き付けたメガクラウドの是非

 MicrosoftのAzure Networkingチームは「Microsoft Azure」においてインターネット史上最大級のDDoS(分散型サービス拒否)攻撃を防いだ方法を公開した。 Azureの単一IPに対する過去最大の攻撃は2020年春の1Tbpsの攻撃だった。2021年8月の攻撃は2.4Tbpsで、2020年春の2倍以上だ。規模の点ではAzureでこれまでに検知された全ネットワーク攻撃を上回る。 Azure Networkingチームのアレテア・トー氏(プログラムマネジャー)とサイード・パシャ氏(プリンシパルネットワークエンジニア)は、攻撃トラフィックの発生源は約7万に上り、アジア太平洋地域(APAC)の複数の国と米国から仕掛けられていたという。 攻撃の詳細  UDPリフレクション攻撃は10分以上続き、数秒間で急増する短期バーストを3回伴っていた。そのピークは1回目が2.4Tbps、2回目が0.55Tbps、3回目が1.7Tbpsだった。 「Azureの『DDoS Protection』はDDoS検知および緩和の分散型パイプラインに構築されており、数十Tbit規模のDDoS攻撃を吸収できる。この緩和能力を拡大してDDoSを吸収し、ユーザーに必要な保護を提供する」 今回の攻撃はAzureのDDoSコントロールプレーンによって適切に緩和された。リソースは攻撃の発生源に物理的に近い場所に動的に割り当てられた。これにより、悪意のあるトラフィックが顧客のリージョンに到達することはなかった。トラフィック量がベースラインから大きく逸脱していることが検知されるとこのロジックが起動し、数秒で巻き添え被害が緩和および防止される。 「クラウドでもオンプレミスでも、インターネットに接するワークロードはDDoS攻撃には脆弱(ぜいじゃく)だ。Azureのグローバル規模の吸収と高度な緩和ロジックにより、ユーザーは影響を受けることもダウンタイムが生じることもなかった」 ImmuniWebの創設者で、欧州刑事警察機構(Europol)の「Data Protection Experts Network」のメンバーでもあるイリア・コロチェンコ氏によると、今回の攻撃は大手パブリッククラウドプロバイダーの機能が大きなメリットになる可能性の優れた実例になるという。 コロチェンコ氏は英Computer Weeklyのインタビューに次のようにコメントしている。「クラウドベースのDDoS対策ソリューションによって保護されるとしても、オンプレミスに侵入する恐れをなくすわけではない。DDoS対策ベンダーがDDoS攻撃を受けたとき、他の顧客に悪影響を及ぼさないようにするために顧客の一部を見捨てた例を目の当たりにしたことがある」 「主要プロバイダーのパブリッククラウド、特に『Amazon Web Services』とAzureは恐らく最も包括的で効率的なDDoS保護をユーザーに提供している。プレミアムな機能は非常に高額だ。しかし他のソリューションよりも驚くほど高いコストパフォーマンスを実現する」 パブリッククラウドにデータを移行しない理由としてサイバーセキュリティとコンプライアンスを挙げる人は多い。だが正しく構成、強化されたクラウドインフラは自動化とインシデント対応機能の向上により、全ユーザーのセキュリティも強化するとコロチェンコ氏は補足する。 Original Post>

AWS、ロボットフリート管理アプリケーション構築を支援する「AWS IoT RoboRunner」発表

 Amazon Web Services(AWS)が、Amazonのフルフィルメントセンターで利用してきたテクノロジーをベースに、クラウドサービスでロボットのフリート管理を拡充させようとしている。 AWSは現在開催中のイベント「AWS re:Invent」で、「AWS IoT RoboRunner」のパブリックプレビューを発表した。ロボットのフリートが相互にシームレスに活動できるよう支援するアプリケーションを企業が容易に開発、デプロイできるようにする新たなロボティクスサービスだ。 AWSは、ロボティクス開発者向けのクラウドベースのシミュレーションサービス「AWS RoboMaker」を提供している。AWS IoT RoboRunnerは同社の新たなロボティクス関連サービスとなる。 AWSによれば、AWS IoT RoboRunnerはロボットを作業管理システムに接続し、オペレーション全体の作業を単一のシステムビューで組織的に調整できるようにする。AWS Roboticsを担当する製品マネージャーのEric Anderson氏はインタビューで、ロボットフリートの規模拡大がさまざまな業界で課題となっていると指摘した。「スケーリングと多様性の両面で課題がある」とし、「さまざまなタイプのロボット、機器、部品、ペイロードが動き回る」と述べた。 また、企業は古いロボットを残したまま、次世代のロボットを追加で導入している。AWSは、さまざまな世代のロボットをうまく連携させるクラウドレイヤーを提供しようとしている。物流、製造、運輸、フルフィルメントなどの業界が対象となる。 「AWS Management Console」でファシリティを作成する。一元化されたリポジトリーを自動的に作成し、ファシリティ、ロボット、目的地、タスクデータなどを保存できる。ロボットはフリートとしてセットアップされ、個々のロボットはフリート内の「ロボット」としてAWS IoT RoboRunnerでセットアップされる。 AWS IoT RoboRunneの「Fleet

AWSが新しいロボットフリート管理支援プログラム、ロボティクスアクセラレーターを開始

AWSのフラッグシップカンファレンス「re:Invent」の開幕にあたり、クラウドコンピューティングの巨人である同社は米国時間11月29日、大規模なロボットフリートの共同作業を支援するアプリケーションを構築するための新サービス「AWS IoT RoboRunner(IoTロボランナー)」を発表した。この新サービスは、Amazon(アマゾン)が自社の倉庫で利用しているようなロボットフリートを運用するために必要な、作業およびフリート管理アプリケーションを構築するためのインフラを提供することを目指している。 また、同社は新しいロボティクスアクセラレータープログラムを発表した。 RoboRunnerは、さまざまなメーカーのロボットと統合するアプリケーションの構築や、アプリケーションのライフサイクルの管理を支援する。AWSは、現在、異なるベンダーのロボットを単一のシステムに統合することは困難であり、企業はロボットを管理するために多くのサイロを抱えていると論じている。 画像クレジット:AWS RoboRunnerは開発者に対して、フリート全体の集中的なデータリポジトリを提供するとともに、特定の施設内のすべての目的地をモデル化するためのレジストリや、これらのロボットが実行するすべてのタスクを記録するためのレジストリを提供する。 このサービスがターゲットとしているのは、無人搬送車、移動ロボット、ロボットアームなどのフリートを運用している大規模な産業企業だ。 [link ] RoboRunnerに加えて、AWSはMassRobotics(マスロボティクス)と共同で、新しいロボティクススタートアップ・アクセラレーター「AWS Robotics Startup Accelerator」を発表した。 AWSのCTOであるWerner Vogels(ワーナー・ヴォゲルス)氏は、29日の発表で次のように述べた。「今日、成功している商業用ロボット企業は数えるほどしかありませんが、これにはいくつかの大きな理由があります。第一に、実世界の環境はダイナミックで予測不可能であるため、適切なニッチ分野と適切な能力を組み合わせることが難しく、ロボット製品市場に適合する企業を見つけることがなかなかできません。第二に、高度な自律性と知能を備えたロボットを作るには、多分野にわたるスキルが必要であり、そのようなスキルを持った人材の確保は困難です。第三に、ロボティクスは資本集約的であり、センサーやアクチュエーター、機械的なハードウェアがすでに市販されている場合でも、多額の先行投資が必要となります」。 この新しいプログラムは、アーリーステージのスタートアップ企業(売上高1000万ドル / 約11億4000万円未満、調達額1億ドル / 約114億円未満)を対象としている。選ばれた企業は、ロボティクスのエキスパートによる専門的なトレーニングやメンターシップを受けられる他、最大1万ドル(約114万円)のAWSクレジットを獲得できる。 画像クレジット:Westend61 / Getty Images

AWSが変化するデータを自動で更新できるData Exchange for APIsを公開

開発者は、他社のデータセットを利用して機械学習モデルを構築することがよくある。他社のデータセットを自分のモデルに追加するのだ。しかしデータは常に静的であるとは限らない。そのため、余分な作業ではあるが、何らかのパイプラインのようなものを構築して定期的にデータを集めることになる。 米国時間11月30日にラスベガスで開催されたAWS re:Inventで、AWSはAWS Data Exchange for APIsを発表した。これは変化する他社APIを自動で更新できる新しいツールで、更新の仕組みを構築する必要がなくなる。 AWSのAlex Casalboni(アレックス・カサルボニ)氏は同社プログの投稿で、APIを使うことによりデータサイエンティストはパイプラインがなくても株価のように頻繁に変化する情報をもとにして質問の答えを得られるようになると指摘している。APIが1つだけならこれでいいが、複数のAPIを使う場合はAPIに関する通信や認証、ガバナンスなど新たな問題が発生する。 AWS Data Exchange for APIsはこのような問題の解決に役立つ。カサルボニ氏はブログで「本日、AWS Data Exchange for APIsの公開を発表し、うれしく思っています。これはAWSのSDKを使って安定したアクセスで他社APIを見つけ、購読し、利用できる機能です。AWSネイティブの認証やガバナンスも一貫して利用できます」と述べている。 ここで重要なのは、今週発表された多くのツールと同様にこれもAWS独自のツールであるという点だ。アプリケーションやデータモデルをAWS上で構築しているなら、このツールでAWSのSDKにアクセスし、AWSの認証やガバナンスのツールを利用して、他社APIのアクセスと更新を自動化できる。 データプロバイダにもメリットがある。Data ExchangeのカタログにデータプロバイダのAPIが掲載されれば、多くの開発者の目に留まりデータソースを利用してもらえる。カサルボニ氏は「データプロバイダはOpenAPIの仕様でAWS Data ExchangeカタログにAPIを掲載し、Amazon API Gatewayのエンドポイントに配置することで、膨大な数のAWSのお客様にAPIを発見してもらえるようになります」と説明した。

AWS、モノや環境のデジタルツインが簡単に作れる新サービス「IoT TwinMaker」を発表

米国時間11月30日、AWSのre:Inventカンファレンスにおいて同社はAWS IoT TwinMakerを発表した。この新サービスを使うと、現実世界のシステムのデジタルツインの作成と利用が容易にできるようになる。 デジタルツインとは、例えば建物、工場、生産ライン、設備などを仮想的に表現したもので、実世界のデータを定期的に更新することで、表現したシステムの動作を模倣するものだ。 この新サービスにより、ユーザーはビデオフィードやアプリケーションなどのソースからデータを接続することで、単一のリポジトリにデータを移動させることなく、デジタルツインを作成することができると同社はいう。 「次のAWSサービスの内蔵データコネクタを使用できます。機器や時系列のセンサーデータ用のAWS IoT SiteWise、ビデオデータ用のAmazon Kinesis Video Streams、ビジュアルリソース(例えばCADファイル)やビジネスアプリケーションからのデータの保存用のAmazon Simple Storage Service(S3)です。また、AWS IoT TwinMakerは、他のデータソース(SnowflakeやSiemens MindSphereなど)と併用する独自のデータコネクタを作成するためのフレームワークも提供しています」と、AWSは新サービスに関するブログ記事で説明している。 同社は、デジタルツイングラフが作成されると、ユーザーは物理的環境のコンテキストでデータを可視化したいと考える可能性が高いと指摘している。これに対応するため、AWS IoT TwinMakerは、ユーザーの物理システムの仮想表現と接続されたデータソースの関係を組み合わせたデジタルツイングラフを作成する。これにより、ユーザーは実世界の環境を正確にモデル化することができる。また、ユーザーは既存の3Dモデルをインポートして、工場などの物理的空間の3Dシーンをアレンジすることができる。そこから、接続された機械学習サービスからのインサイトとともに、インタラクティブなビデオやセンサーデータのオーバーレイを追加することもできる。 AWSは、このサービスには、Grafana Labsが提供するオープンなダッシュボードおよび可視化プラットフォームのマネージドサービスである「Amazon Managed Grafana」のプラグインが付属していると指摘する。 AWS

攻撃開始から暗号化までの3時間、ランサムウェア攻撃者は何をした?

Sophosの脅威研究者が、驚くべき速さで攻撃する新種のランサムウェアを発見した。このランサムウェアはPython製で、「VMware ESXi」サーバと仮想マシン(VM)を標的とする。この組み合わせはあまり注意されていない可能性があるため、多くの環境に重大な脅威をもたらす恐れがある。

バックアップツール“4種”を比較 Commvault、Acronis、Cohesity、Veritasの違いは?

Commvault Systemsの「Commvault Backup & Recovery」は、バックアップを導入する企業にとっては堅実な選択肢だと言える。仮想マシンやデータベース、クラウドサービス、コンテナなど幅広い対象のバックアップとリカバリー(復元)ができる。Commvault Backup & Recoveryはデータ暗号化、重複排除、きめ細かなリカバリーなどの機能も提供する。

1 30 31 32 33 34