並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 169件

新着順 人気順

nimの検索結果1 - 40 件 / 169件

  • 日本人は中華系・チャイナっぽい服が性癖の人間が多く、これらの50%は高橋留美子に、もう50%はCLAMPによって植え付けられたとする説がある?

    Kaoru Miyazaki @KmGraph 必要なのはコントラスト KRAPHT Inc. (Founder) nim @nimdotdesign (Art Director) 📩 [email protected] https://t.co/VAJZPlxwuj Kaoru Miyazaki @KmGraph 日本人は「中華系・チャイナっぽい服」が性癖の人間が多く、これらの人間の50%は高橋留美子に植え付けられ、もう50%はCLAMPによって植え付けられたとする説があります。 2023-04-11 13:25:43

      日本人は中華系・チャイナっぽい服が性癖の人間が多く、これらの50%は高橋留美子に、もう50%はCLAMPによって植え付けられたとする説がある?
    • Nimを知ってほしい2022

      Nimを知ってほしいという記事があり、Nimを知らなかった人々向けに最初の紹介として大変な貢献をしてくださりました。 しかしまだNimを使ったプロダクトというのも少なく、競プロではチラホラ見かけるものの、人々の中にある意識としては「気になっています」という域を越えられていないのも事実です。 そこで今回は企業での意思決定をする人や、5年以上の経歴があるエンジニア向けに、Nimを書いてみようと感じてもらうことを目的に、先日私が登壇したみんなのPython勉強会#79 『Pythonistaに伝えたいNimの魅力』に加筆して投稿してみたいと思います。 Nimって何? 2008年から開発が始まった新しいプログラミング言語です。 「Pythonに型が付いて、Goみたいに高速に、バイナリになってOSの実行環境に依存しないで動いてくれる言語ないかな〜」という全プログラマーの夢を叶えてくれる言語です。 書

        Nimを知ってほしい2022
      • [速報]マイクロソフト、AIモデルをWindows/macOSローカルで実行可能にする「Azure AI Foundry Local」発表

        [速報]マイクロソフト、AIモデルをWindows/macOSローカルで実行可能にする「Azure AI Foundry Local」発表 マイクロソフトは日本時間5月20日未明に開幕したイベント「Microsoft Build 2025」で、WindowsおよびmacOSのローカル環境でエッジ環境に最適化されたAIモデルを実行可能にする「Azure AI Foundry Local」を発表しました。 同時に、これまでWindows Copilot Runtimeと呼ばれてきたWindows上のAI実行環境を「Windows AI Foundry」としてアップデート。Windows上での「Azure AI Foundry Local」をこれに統合することも明らかにします。 Azure AI Foundryとは Azure AI Foundryは、クラウドサービスであるMicrosoft A

          [速報]マイクロソフト、AIモデルをWindows/macOSローカルで実行可能にする「Azure AI Foundry Local」発表
        • 40代で Rust を触り始めて 1年で AtCoder に入水できた件 - Qiita

          Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに hossie - AtCoder 2023/04/01 に AtCoder 入水しました (参加者の上位 10% ほどにあたる水色レートに到達)。参加から一年ほどでした。 本記事は色変に関する、まとまりのない長文ポエムです。 入緑の色変記事 AtCoder 緑になったのでパズル好きな人に競プロを紹介してみる - Qiita Rust 初心者の AtCoder 用開発環境設定と、解く流れの例 - Qiita Rust 初心者の AtCoder でよく使う言語機能とライブラリー覚え書き - Qiita スペック 開発環境 Micr

            40代で Rust を触り始めて 1年で AtCoder に入水できた件 - Qiita
          • RustもJuliaやGoみたいに廃れて消えていく気がしている。 - Qiita

            Juliaは一時期すごい流行って数値計算の王座になると期待されライブラリも大量に作られたけど、結果Pythonの座を置き換えるにはいたらなかった。Goもコンテナ化との相性がよて一時期すごい流行ったけど、なんだかんだみんなJavaとかPHPとかRubyとか書いてる。 Rustもここ数年すごい流行ってるけど、JuliaとかGoみたいに飽きられて廃れていく気がする。 流行に敏感な人がなんか面白い言語あるぞーと騒ぎ出す。 様々なライブラリが乱立して色々出来るようになる。 数年かけて言語そのものが良くなっていき、ライブラリも淘汰や共通化されて成熟していく。 成熟したライブラリの開発は飽きられてメンテナンスされなくなる。 メンテナンスされてないライブラリを使いたくないから誰もその言語に参入しなくなる。 結果として言語そのものが衰退して、もとの成熟していてメンテナンスされ続けている言語とライブラリをみん

              RustもJuliaやGoみたいに廃れて消えていく気がしている。 - Qiita
            • 谷垣禎一氏が語る文在寅氏と鳩山由紀夫氏が同類の理由「日本が損しない国際秩序作れるか」~夜の政論②

              娘さんの手料理を肴に晩酌を楽しむ自民党の谷垣禎一元総裁=東京都世田谷区の自宅(酒巻俊介撮影)自民党の谷垣禎一元総裁(78)の自宅を訪ね、岸田文雄内閣の支持率がなぜ上がらないのか、一杯やりながら率直に質問をぶつけてみた。岸田首相の外交面の成果は、知らぬ間に立ち消えになってはいませんか。 「確かにね。今回のウクライナ戦争で存在感が高まっているグローバルサウス(新興国・途上国)の取り込みなどは、日本の強みを生かしてよくやっている。彼らの一部には、西側の先進国に『あいつらは今も上から目線だ』と腹を立てている国が多い。事実上の『一強』となった米国や植民地支配の過去を抱える英仏に対し、『西側リベラリズムのおごり』と批判する国さえある。その中で、日本は独自のODA(政府開発援助)を駆使して努力を重ね、『欧州はうんざりするが、日本は違う』と評価も集めた。首相はここをうまくすくい、西側とつなぐ役割を果たして

                谷垣禎一氏が語る文在寅氏と鳩山由紀夫氏が同類の理由「日本が損しない国際秩序作れるか」~夜の政論②
              • 世界のプログラミング言語(47) PythonのようにシンプルでC言語のように高速な言語Nimを試してみよう

                NimはPythonのようにシンプルな構文を持ちながら、C言語と同等の速度で動かすことができるプログラミング言語です。そのため、ゲーム開発からシステムプログラミング、Web開発とさまざまな用途で活用されています。今回は、効率性と表現力が魅力のNim言語の魅力に迫ってみましょう。 シンプルな構文を持ち実行速度が速いNimでFizzBuzzを実行したところ Nimとは Nimは2008年にドイツの開発者アンドレアス・ランプフによって開発されたプログラミング言語です。最初のNimはPascalによって書かれており、その後すぐにNim自身で書き直されました。 Nimの特徴は、Pythonのようにスッキリとした構文を採用しており可読性が高いことです。型推論を備えていることから静的型付き言語ながら記述が少なくすみます。また、強力なマクロとテンプレートの機構を備えており、メタプログラミングが可能です。

                  世界のプログラミング言語(47) PythonのようにシンプルでC言語のように高速な言語Nimを試してみよう
                • UUIDv7 in 33 languages

                  UUIDv7 is a 128-bit unique identifier like it's older siblings, such as the widely used UUIDv4. But unlike v4, UUIDv7 is time-sortable with 1 ms precision. By combining the timestamp and the random parts, UUIDv7 becomes an excellent choice for record identifiers in databases, including distributed ones. Let's briefly explore the UUIDv7 structure and move on to the zero-dependency implementations i

                    UUIDv7 in 33 languages
                  • 達人出版会

                    知識ゼロからノーコードではじめる Studio Webサイト制作入門 gaz 徹底攻略 データベーススペシャリスト教科書 令和7年度 株式会社わくわくスタディワールド 瀬戸美月 徹底攻略データサイエンティスト検定問題集[リテラシーレベル]対応 第2版 小縣 信也, 斉藤 翔汰, 森田 大樹, 田澤 賢, 小宮 寛季, 野口 敏久, 山田 弦太朗, 安… Proxmox VEサーバー仮想化 導入実践ガイド エンタープライズシステムをOSSベースで構築 青山 尚暉, 海野 航, 大石 大輔, 工藤 真臣, 殿貝 大樹, 野口 敏久 1週間でLPICの基礎が学べる本 第4版 中島 能和 Windowsで作る侵入検知システム 自作IDS/IPSで学ぶ実践セキュリティ dora シリコンに導入されたドーパントの物理 公益社団法人 応用物理学会 半導体分野将来基金委員会 Pythonを使った数値計算入

                      達人出版会
                    • Goとマルチコアスケール実装

                      マルチコア化の未来予測 半世紀前にSF映画「2001年宇宙の旅」に登場するコンピューターHAL-9000が並列コンピューティングの未来を示しました。マルチコアで構成されたコンピューターの物理コアを取り除いてもすぐにクラッシュせずに性能ダウンして処理が継続するという演出がありました。 当時ですらシングルコアコンピューティングの限界が予想されていて、現状のコンピューティングがマルチコア化しているという未来をしっかり予測できていたことがわかります。 演出はコア数に応じてコンピューティング性能がスケールしていることを表現しています。これはマルチコアスケールするソフトウェア実装の未来を示していたと思います。 シングルコア性能向上の頭打ち 2003年以降あたりはCPUの動作周波数が伸び悩み出したところ。 https://queue.acm.org/detail.cfm?id=2181798 より その

                        Goとマルチコアスケール実装
                      • ピクシブのインターンに参加してアニメーションのエンコードをGIFから12倍高速にした

                        インターンに参加した 夏はピクシブ![1] ということで、9月15日から28日[2]までの平日8日間に「PIXIV SUMMER BOOT CAMP 2022」に参加していました。 私が参加したのはImageFluxという画像変換/配信・ライブ動画配信サービスの開発に取り組むコースです。 応募 個人的に画像処理や配信についてかなり関心があり、FFmpegを触ったりWebRTCの記事を読んだりしていました。 これまでお仕事ではWebフロントエンドの経験しかなく画像関連の仕事を一度経験してみたかったため、むしろImageFluxコースがあるからという理由でピクシブのインターンに行きたいと考えていました。 応募時には何個か志望コースを選ぶ必要があり、技術基盤コース、広告配信コース、機械学習コース、VRoid Hubコースなどに興味がありましたが、現実的に今の技術スタックで後者2つは難しそうだなと

                          ピクシブのインターンに参加してアニメーションのエンコードをGIFから12倍高速にした
                        • NVIDIA、ローカルで動く基盤モデルでPCデスクトップ上に表情のあるキャラクターを表示。アプリの使い方や文章の要約などをしてくれる「Project R2X」発表

                          NVIDIA、ローカルで動く基盤モデルでPCデスクトップ上に表情のあるキャラクターを表示。アプリの使い方や文章の要約などをしてくれる「Project R2X」発表 NVIDIAは現在ラスベガスで開催中のイベント「CES 2025」において、PCのデスクトップ画面上にローカルマシン上で稼働する生成AIによるキャラクターが表示され、アプリの使い方指南やドキュメントの要約、オンライン会議への参加などをしてくれるAIエージェント「Project R2X」を発表しました。 表情などが生成AIでアニメーション化 Project R2Xのキャラクターは、同社のGPUを搭載した「NVIDIA RTX AI PC」の上で稼働する基盤モデル「NVIDIA NIMマイクロサービス」を用いた生成AIによって実現されています。 自然言語を用いた音声で人間と対話でき、唇や舌の動きなどの表情はNVIDIA Audio2

                            NVIDIA、ローカルで動く基盤モデルでPCデスクトップ上に表情のあるキャラクターを表示。アプリの使い方や文章の要約などをしてくれる「Project R2X」発表
                          • 流行っている・流行っていないプログラミング言語に関する1つの考察 - Qiita

                            Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? なぜ〇〇というプログラミング言語は流行らなかったのか? 最近、私は古くからあるプログラミング言語に興味があり、LispやSmalltalkなどの言語に興味があります。触っていくうちに、結構面白いな。と思うことがあるのですが、それほど人気があるとは言えません。 例えば、プログラミングの人気を表すTIOBE Indexでも、ランクが高いとは言えませんし、それらの言語はプログラミング言語の歴史。という中で、ちょっと学ぶぐらいで、それほど詳しくは知らない。という人が多いでしょう。 Quoraを探してみると、「Lispはなぜ覇権を握らなかったので

                              流行っている・流行っていないプログラミング言語に関する1つの考察 - Qiita
                            • Meta、無料で商用可の「Llama 3.1」リリース 「世界最大かつ最も高性能なオープンモデル」

                              米Metaは7月24日(現地時間)、“オープンソースの”LLMの最新版「Llama 3.1」を発表した。最大モデルは4050億(405B)のパラメータを持ち、米NVIDIAの1万6000個以上の「H100」でトレーニングした。Llama 3の70Bモデルと8Bモデルもアップグレードされる。 4月にリリースした「Llama 3」同様に、ほぼすべての主要クラウドサービス(AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM、Snowflake)で利用可能になる。 15兆トークンを超えるトレーニングデータでトレーニングしたとしているが、データの出所は明示していない。 405Bモデルは、長文テキストの要約、多言語会話エージェント、コーディングアシスタント、将来のAI言語モデルのト

                                Meta、無料で商用可の「Llama 3.1」リリース 「世界最大かつ最も高性能なオープンモデル」
                              • 3年かけてついに完成した「CUDA」の代替はAI開発を変えるのか

                                CUDAの代替技術を開発することは、決して簡単なことではない。 ModularのChris Lattner氏が率いる120人の開発チームは、CUDAだけでなくAIソフトウェアスタック全体をゼロから置き換えることを目指し、3年間にわたり取り組んできた。 Lattner氏は米国EE Timesの取材に応じ「そのためには何が必要だろうか。実際、CUDAの代替技術の開発は非常に難しく、何年もかかる。われわれはこの3年間、プログラミング言語やグラフコンパイラ、大規模言語モデル(LLM)の最適化などに取り組み、それを全て整理して、大規模実装や試験、検証などを行ってきた」と述べている。 既存のAIソフトウェアスタックの問題の原因は、それが突然出現して、現在も非常に速く変化しているという事実にある。新しいユースケースやモデルに対応するために、すぐさまレイヤーが追加されるのだ。現在、CUDAの上には、One

                                  3年かけてついに完成した「CUDA」の代替はAI開発を変えるのか
                                • Meta、無料で商用可の新LLM「Llama 3」、ほぼすべてのクラウドでアクセス可能に

                                  米Metaは4月18日(現地時間)、オープンソースのLLMの最新版「Llama 3」を発表した。80億パラメータと700億パラメータの2モデルで、いずれもほぼすべての主要クラウドサービス(AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM、Snowflake)で間もなく利用可能になる。 昨年リリースの先代「Llama 2」にも700億パラメータモデルはあったが、Llama 3は4000億パラメータの高密度モデル(こちらはまだ公開されていない)のトレーニングも継続中だとマーク・ザッカーバーグCEOは語った。 トレーニングデータセットは、Llama 2よりも7倍大きく、4倍のコードが含まれている。英語以外での利用に備えるため、データセットの5%以上が非英語データで構成されて

                                    Meta、無料で商用可の新LLM「Llama 3」、ほぼすべてのクラウドでアクセス可能に
                                  • 達人出版会

                                    探検! Python Flask Robert Picard, 濱野 司(訳) BareMetalで遊ぶ Raspberry Pi 西永俊文 なるほどUnixプロセス ― Rubyで学ぶUnixの基礎 Jesse Storimer, 島田浩二(翻訳), 角谷信太郎(翻訳) 知る、読む、使う! オープンソースライセンス 可知豊 きつねさんでもわかるLLVM販売終了 柏木餅子, 風薬 孫と一緒にサイエンス|数って不思議!!…∞ 1+1=2?で始まる数学の世界 蟹江 幸博 数学テクノロジー入門 画像技術を支える数学 岡田 勘三 計算折り紙入門 あたらしい計算幾何学の世界 上原 隆平 角度データのモデリング 清水 邦夫 現場主義統計学のすすめ 野外調査のデータ解析 島谷 健一郎 ロバスト統計 外れ値への対処の仕方 藤澤 洋徳 Excelで学ぶオペレーションズリサーチ 大野 勝久, 逆瀬川 浩孝,

                                      達人出版会
                                    • 神話のプログラム言語 Odin(これであなたも厨二病)

                                      Odinと言うプログラム言語を、ご存じでしょうか? 最近、youtubeで海外のコンピューターサイエンティストの間でも、話題として取り上げられるようになってきました。 Odinは、C言語の代替プログラム言語とも言われ、ジェネリクス、パターンマッチング、エラー処理など、現代的なプログラミング言語の機能を備えたプログラム言語だと言われています。 C言語の代替プログラム言語といえば、CarbonやRustが有名ですが、どちらの言語も難解すぎると言う欠点があります。 Odinの開発者はスウェーデンのgingerBill氏で、Odinと言う言葉は、北欧神話に登場する神の名前です。知識と詩の王であり、死と復活を司る神として知られています。 神話の神を司った、このプログラム言語を覚える事で、あなたも神に・・・。(厨二病) 失礼、あなたもC言語を脱却出来るはずです。 最近では、JangaFX社のリアルタイ

                                        神話のプログラム言語 Odin(これであなたも厨二病)
                                      • GitHub Models を使って 20 種類以上の LLM の日本語性能を測定してみた - NTT docomo Business Engineers' Blog

                                        本記事では、今年8月にパブリックベータ版として GitHub に搭載された新機能 GitHub Models について、概要や利用法を簡単にご説明します。さらに、実際に GitHub Models を活用して、多数の LLM の日本語性能を横断的に測定していく例を紹介していきます。 目次 目次 はじめに 三行で GitHub Models を説明すると... GitHub Models の使い方 Waitlist への登録 モデル一覧 ブラウザ上で試す API経由で試す GitHub Models を利用する上での注意点 API レート制限の制約が強い Azure AI Content Safety が全ての LLM に適用されている GitHub Models を使って LLM の日本語性能を横断的に測定する 実験 1. GPT-4o による自動評価 2. 出力が日本語になっているかどう

                                          GitHub Models を使って 20 種類以上の LLM の日本語性能を測定してみた - NTT docomo Business Engineers' Blog
                                        • モンスター社員Bさん的な人間だった私が、たった2年間だけ有能な社員として機能できたことがあるという話 - 頭の上にミカンをのせる

                                          www.tyoshiki.com の続き。この記事についてまぁこういう事を言う人がいて。 これ書いた人は書いた人で発達の使い方を理解してないのが愚か。 自分は健常者だから相手も同じことが出来るだろうという甘えで「察して」を仕事に持ち込む意味がわからない。 発達なの分かってるなら察してじゃなくて明確な指示で仕事振れば良いのに健常者と同じ運用して仕事回るわけねえじゃん https://t.co/L2lpJPiQut— 月夜 のかに (@Tsukiyono_KANI) 2023年9月2日 無能寄りの上司が分かりやすく自分より無能な部活に文句垂れてるムーブ地獄だな 馬鹿と鋏はなんとやらだろ数百年前から言われてる事じゃねえか— 月夜 のかに (@Tsukiyono_KANI) 2023年9月2日 この人は前後のツイートを見る限り、口で偉そうなことを言ってるだけで具体的な提言ができるわけではなさそうで

                                            モンスター社員Bさん的な人間だった私が、たった2年間だけ有能な社員として機能できたことがあるという話 - 頭の上にミカンをのせる
                                          • なぜ私はデータ処理においてNimをPythonの代わりに使うのか(翻訳)

                                            この記事は以下の翻訳です Why I Use Nim instead of Python for Data Processing 怠け者のプログラマーは、計算の手間をプログラミングの手間に置き換えたがるものです。私はまさにそのようなプログラマーです。私の研究では、テラバイト級の大規模データを対象としたアルゴリズムを設計・実行することがよくあります。NIHのフェローである私は、10万台以上のプロセッサを搭載したクラスターであるBiowulfを利用していますが、大きなMapReduceを実行すればよいのであれば、1つの実験のためにシングルスレッドのパフォーマンスを最適化するために膨大な時間を費やすことは、通常は意味がありません。 このようなリソースがあるにもかかわらず、私はデータ処理タスクにプログラミング言語のNimを使うことが多くなりました。Nimは計算科学の分野ではあまり評価されていません

                                              なぜ私はデータ処理においてNimをPythonの代わりに使うのか(翻訳)
                                            • 商用利用OK!2020年にリリースされた無料フォント40

                                              2020年12月23日 フォント 2020年もあとわずか!今年も数多くの素敵フォントがリリースされました!この一年を振り返って、「これは!」と思ったフォントをいくつか紹介します。どれも無料でダウンロードでき、商用利用可能なものです。みなさんのお気に入りが見つかると幸いです。 ↑私が10年以上利用している会計ソフト! 過去の年末フォント紹介記事 2019年にリリースされた無料フォント40 2018年にリリースされた無料フォント40 2017年にリリースされた無料フォント40 2016年にリリースされた無料フォント30 2015年にリリースされた無料フォント35 日本語フォント プイッコ ぷっくりと丸みのある可愛らしいフォント。見出しやタイトルに良さそうです。 あんずもじ2020 あんずもじ等幅2020 長年愛されているあんずもじがリニューアル。ひらがな・カタカナが漢字よりも少し小さくなって、

                                                商用利用OK!2020年にリリースされた無料フォント40
                                              • VS Code拡張機能を追加してCloudFormation開発環境をレベルアップする | DevelopersIO

                                                データアナリティクス事業本部コンサルティンググループのnkhrです。 このブログでは、CloudFormation開発で利用できるVS Code拡張機能の設定について紹介します。今回実施した環境のバージョンは、下記の通りです。 Windows 10 VS CodeのVersion 1.60.2 PythonのVersion 3.9.7 ※バージョンが違うとGUIの設定画面や、設定パラメータ名など異なる場合があるため、設定時は注意してください。 このブログでは、下記の拡張機能の設定について説明しています。 vscode-cfn-lint:テンプレートを解析しバリデーションを実施 indent-rainbow:インデントをカラー表示(yaml形式で作成する場合は重宝しそう) CloudFormation support for Visual Studio Code:補完機能や公式ドキュメントの

                                                  VS Code拡張機能を追加してCloudFormation開発環境をレベルアップする | DevelopersIO
                                                • 正確さと著者の声の間で苦悩する校正者の姿を描き出す一冊──『カンマの女王 「ニューヨーカー」校正係のここだけの話 』 - 基本読書

                                                  カンマの女王 「ニューヨーカー」校正係のここだけの話 作者:メアリ ノリス発売日: 2020/12/29メディア: 単行本(ソフトカバー)校正とは、印刷物などの文章が正しいのか(誤字脱字が存在しないか、文法的に正しいのか、事実に反する内容はないかなど(こちらは校閲ともいう))をチェックする行為のことをさし、大抵の本や雑誌の刊行前には、これが行われていると思っていい。 本書『カンマの女王』は、アメリカの老舗雑誌「THE NEW YOKER」で長年校正係をつとめてきたメアリ・ノリスによる英語での校正についての一冊である。英語で間違えやすい・悩みやすい文法や規則をテーマに、自分のエピソードを添えていく、といった配分であり、英語の文法よもやま話、といった趣が強い。英語についての本なのでどこまで楽しめるかな、と思っていたが、これが抜群におもしろい。 thatとwhichのどちらを使うべきなのか、カン

                                                    正確さと著者の声の間で苦悩する校正者の姿を描き出す一冊──『カンマの女王 「ニューヨーカー」校正係のここだけの話 』 - 基本読書
                                                  • アクセンチュアCEOがCESで講演、AIエージェントで「仕事のやり方変えた」

                                                    「AIエージェントの利用に際して、我々は仕事のやり方を大幅に変えねばならなかった」――。 米Accenture(アクセンチュア)のジュリー・スウィートCEO(最高経営責任者)は2025年1月8日(米国時間)、世界最大級のテクノロジー見本市「CES 2025」(2025年1月7~10日、米国ラスベガス)のキーノートで、企業向けのAI(人工知能)エージェントサービスを開発・提供するのに際して、同社が得た学びについて話した。 アクセンチュアはCES開幕に先立つ2025年1月6日(同)、業界特化型のAIエージェントのソリューションサービス「AI Refinery for Industry」を提供すると発表した。消費財などの収益管理用のAIエージェントやライフサイエンス領域での臨床試験を支援するAIエージェント、BtoB領域のマーケティングを支援するAIエージェントなど、まずは12種類を提供。202

                                                      アクセンチュアCEOがCESで講演、AIエージェントで「仕事のやり方変えた」
                                                    • 【Twitter障害】ブラウザ版Twitterで世界規模のエラー「強制ログアウトでTwitterログインできない、通知も来てない」#Twitter不具合 12月29日

                                                      9時30分頃からブラウザ版Twitterでエラー、日本だけではなく世界レベルの障害 画像引用元:https://pbs.twimg.com/media/FlGzApMacAABoow?format=jpg&name=4096×4096 画像引用元:https://pbs.twimg.com/media/FlGzApMacAABoow?format=jpg&name=4096×4096 ログインが出来ない、通知が来なくなるなど複数の障害 画像引用元:https://pbs.twimg.com/media/FlG1TfyakAA3lPK?format=png&name=large 画像引用元:https://pbs.twimg.com/media/FlG5UowacAASblS?format=jpg&name=small Twitterログインできない件、多分これアプリケーションサーバーではな

                                                        【Twitter障害】ブラウザ版Twitterで世界規模のエラー「強制ログアウトでTwitterログインできない、通知も来てない」#Twitter不具合 12月29日
                                                      • NVIDIAがデスクトップPCやノートPCに搭載できるAI特化GPU「RTX PRO Blackwellシリーズ」を発表、デスクトップ向け最上位は96GBのVRAMを搭載

                                                        NVIDIAが2025年3月18日に、AIやテクニカルコンピューティング、ハイパフォーマンスグラフィックスに特化したGPU「RTX PRO Blackwell」シリーズを発表しました。これらのGPUには、データセンター向けやデスクトップPC向け、ノートPC向けなどさまざまなラインナップが用意されています。 NVIDIA Blackwell RTX PRO Comes to Workstations and Servers for Designers, Developers, Data Scientists and Creatives to Build and Collaborate With Agentic AI | NVIDIA Newsroom https://nvidianews.nvidia.com/news/nvidia-blackwell-rtx-pro-workstation

                                                          NVIDIAがデスクトップPCやノートPCに搭載できるAI特化GPU「RTX PRO Blackwellシリーズ」を発表、デスクトップ向け最上位は96GBのVRAMを搭載
                                                        • Host your LLMs on Cloud Run | Google Cloud Blog

                                                          Run your AI inference applications on Cloud Run with NVIDIA GPUs Developers love Cloud Run for its simplicity, fast autoscaling, scale-to-zero capabilities, and pay-per-use pricing. Those same benefits come into play for real-time inference apps serving open gen AI models. That's why today, we’re adding support for NVIDIA L4 GPUs to Cloud Run, in preview. This opens the door to many new use cases

                                                            Host your LLMs on Cloud Run | Google Cloud Blog
                                                          • Microsoft Build 2024 キーノート完全日本語化まとめ・意訳 - 吉田の備忘録

                                                            それでは以下、キーノートの情報をお伝えします! 開発者会議は常に最もエキサイティングで、最も楽しい瞬間です。私は成人してからの人生を、過去30年間にわたってBuildに参加することで刻んできました。Win32が初めて議論されたのを明確に覚えています。それはおそらく1991年、.netやAzureも同様です。これらは私の人生に刻まれた瞬間です。そして今、またそのような瞬間にいるように感じます。 ただ今回は、そのスケールや範囲がこれまでよりもはるかに深く、広いのです。この技術スタックのあらゆる層が変わりつつあります。データセンターの消費電力や冷却層から、エッジコンピューティングのNPUに至るまで、これらの新しいワークロード、分散同期データ並列ワークロードによって、テクノロジースタックのあらゆる層が再構築されています。 しかし、現代コンピューティングの始まりまで遡って考えてみると、約70年前には

                                                              Microsoft Build 2024 キーノート完全日本語化まとめ・意訳 - 吉田の備忘録
                                                            • Go、D言語、Nim、Rust製マルウェアが増えている怖いワケ

                                                              攻撃者は、新種のマルウェアの作成に「風変わりな」プログラミング言語を使うことが増えている。これには、新しくてあまり一般的ではない言語を使うと攻撃の検出を回避し、分析を妨げる効果があるという前提がある。 関連記事 Go言語に注力するDynatrace JavaやPHPからの移行も簡単、改めてGo言語がオススメな理由 関数型言語「Erlang」のススメ──なぜCやJavaではダメなのか? Microsoftがプログラミング言語「Rust」への支援を強化 「Rust」はなぜクラウドネイティブ開発者の間で大人気なのか? BlackBerryのリサーチおよびインテリジェンスチームは、一般的ではない言語のサイバー犯罪分野での利用に注目している。 「マルウェアの作成者は、新しい技術を活用するためにスキルと行動を適応させ、変化する能力で知られている」と話すのは、BlackBerryのエリック・ミラム氏(脅

                                                                Go、D言語、Nim、Rust製マルウェアが増えている怖いワケ
                                                              • VRAM容量の少ない安めのグラボでも画像生成AI「FLUX.1 Kontext [dev]」を動かせる省メモリ高速版をNVIDIAが開発、VRAM使用量を24GBから7GBまで削減し2.1倍高速動作

                                                                「FLUX.1 Kontext [dev]」は自然言語で画像を編集可能な画像生成AIモデルで、2025年6月26日にリリースされました。このFLUX.1 Kontext [dev]にはNVIDIAと共同開発したNVIDIA製GPU最適化版が存在しており、基本モデルと比べてVRAM使用量を大幅に削減しつつ処理を高速化することに成功しています。 RTX AI Accelerates FLUX.1 Kontext | NVIDIA Blog https://blogs.nvidia.com/blog/rtx-ai-garage-flux-kontext-nim-tensorrt/ FLUX.1 Kontext [dev]はFLUX.1 Kontextシリーズのオープンウェイトモデル版として開発されたモデルで、画像の特徴を保ったままプロンプト通りの編集を施すことを得意としています。また、FLUX.

                                                                  VRAM容量の少ない安めのグラボでも画像生成AI「FLUX.1 Kontext [dev]」を動かせる省メモリ高速版をNVIDIAが開発、VRAM使用量を24GBから7GBまで削減し2.1倍高速動作
                                                                • Ruby知識ゼロから初参加したRubyKaigi 2024レポート - 共沸

                                                                  TL;DR 楽しかった! 本編 おはようございます。手札事故(twitter:@hand_accident)と申します。 Ruby知識ゼロから初参加したRubyKaigi 2024レポート、略してルゼロ*1という感じでやっていきたいと思います。 < Day 0 自己紹介でもしとくか。生まれ育った愛媛県松山市*2に帰って非IT企業でパソコン係をやっている過程で、すべてが個人開発の労働環境で趣味全ブッパ技術選定をした結果HaskellとNimを書くようになりました。すこしSvelteもします。 Rubyは名前を聞いたことがあるしちょっとニッチなPythonライブラリ探そうとしたら時々検索にgemが引っかかってそちらにはあるのねえという感想を抱くなどしていましたが何の因果か触ってみるには至らず、沖縄に来て初めてコードを見たまであります。 愛媛県松山市で趣味の音楽ゲーム(DDR)に高じていたところ

                                                                    Ruby知識ゼロから初参加したRubyKaigi 2024レポート - 共沸
                                                                  • Nimで知る「オブジェクト指向をする/しない」ということ

                                                                    Nim は、「もしアラン・ケイがオブジェクト指向と言わなかったら」という歴史の if を感じさせてくれる言語だと思った話をします。 私自身は Nim 初心者です。細部の「こいつ慣れてないな」感はご容赦ください。この記事は、この言語については初心者だけれど、プログラミング言語とパラダイムを考えるうえでとても価値があると思った気付きがあったのを、図々しくも記事にしました。複数のプログラミング言語を歴史的な観点で評価するうえで、Nim を通して 70 年代以前の言語と 80 年代以後の言語、具体的には、C with classes と C++ の境界線を見つめ直すことができるんじゃないかと思います。 ズバリ言うと、Nim はアラン・ケイのオブジェクト指向が通じない言語です。 Nim の言語標準には class キーワードがありません(マクロを作れば語句の拡張は可能ですがオプションです)。が、そん

                                                                      Nimで知る「オブジェクト指向をする/しない」ということ
                                                                    • 1 Billion nested loop iterations

                                                                      Methodology Timings taken via hyperfine on an M3 Macbook pro with 16 gb RAM. Input value of 40 given to each. Swift version: swift-driver version: 1.115 Apple Swift version 6.0.2 (swiftlang-6.0.2.1.2 clang-1600.0.26.4) Clang version: Apple clang version 16.0.0 (clang-1600.0.26.4) Fortran version: GNU Fortran (Homebrew GCC 14.2.0_1) 14.2.0 R version: Rscript (R) version 4.4.2 (2024-10-31) Kotlin ve

                                                                      • MetaがGPT-4超えのAIモデル「Llama 3.1」をリリース

                                                                        Metaが大規模言語モデル「Llama 3.1」を2024年7月23日にリリースしました。Llama 3.1はオープンソースで公開されており、GPT-4やGPT-4oといった最先端のクローズドソースAIモデルと同等以上の性能を備えているそうです。 Llama 3.1 https://llama.meta.com/ Introducing Llama 3.1: Our most capable models to date https://ai.meta.com/blog/meta-llama-3-1/ Llama 3.1はパラメーター数「4050億」「700億」「80億」のモデルが用意されており、すべてのモデルが12万8000のコンテキストウィンドウを備えています。 パラメーター数4050億の「Llama 3.1 405B」のベンチマーク結果を「Nemotron 4 340B Instru

                                                                          MetaがGPT-4超えのAIモデル「Llama 3.1」をリリース
                                                                        • 画像生成AI「Stable Diffusion 3.5 Large」の18GBを超えるVRAM使用量を40%も削減して11GBにする新技術をNVIDIAが公開

                                                                          生成AIのパフォーマンスは日々向上していますが、より優れたAIを動かすためには、より多くのVRAM(ビデオランダムアクセスメモリ)が必要になります。例えば画像生成AIのStable Diffusion 3.5のうち、80億のパラメータを持つ最も強力な「Large」を実行する場合、基本モデルは18GBのVRAMを使用します。このVRAM使用量を削減して、より効率的なパフォーマンスで実行できる技術をNVIDIAが公開しました。 TensorRT Boosts Stable Diffusion 3.5 on RTX GPUs | NVIDIA Blog https://blogs.nvidia.com/blog/rtx-ai-garage-gtc-paris-tensorrt-rtx-nim-microservices/ NVIDIAはStable Diffusionで知られるAI企業のStab

                                                                            画像生成AI「Stable Diffusion 3.5 Large」の18GBを超えるVRAM使用量を40%も削減して11GBにする新技術をNVIDIAが公開
                                                                          • Goodbye to the C++ Implementation of Zig ⚡ Zig Programming Language

                                                                            ← Back to News page Goodbye to the C++ Implementation of Zig December 07, 2022 How we used WebAssembly to annihilate 80,000 lines of legacy codeAuthor: Andrew Kelley It’s funny - I have shared this story a handful of times with friends of mine who are qualified, competent software engineers, and each time the response was confusion about why any of this would be necessary or even remotely helpful.

                                                                            • NVIDIAとMistral AIがAIモデル「Mistral NeMo」を発表、新型トークナイザ「Tekken」を採用し日本語を含む多言語性能が強み

                                                                              AI開発企業のMistral AIがNVIDIAと協力してAIモデル「Mistral NeMo」を開発したことを発表しました。Mistral NeMoは各種ベンチマークでGemma 2 9BやLlama 3 8Bを上回る性能を示しており、NVIDIAのAIプラットフォームで利用できるほか、モデルデータがオープンソースで公開されています。 Mistral NeMo | Mistral AI | Frontier AI in your hands https://mistral.ai/news/mistral-nemo/ Mistral AI and NVIDIA Unveil Mistral NeMo 12B, a Cutting-Edge Enterprise AI Model | NVIDIA Blog https://blogs.nvidia.com/blog/mistral-nvid

                                                                                NVIDIAとMistral AIがAIモデル「Mistral NeMo」を発表、新型トークナイザ「Tekken」を採用し日本語を含む多言語性能が強み
                                                                              • 「イタリア人が『イタリア料理に対する犯罪』と考えていること一覧」海外の反応 : 暇は無味無臭の劇薬

                                                                                Comment by IncidentalIncidence (アメリカ合衆国) イタリア人が考えるイタリア料理に対する犯罪 イタリア人が問題ないと思っていること 「昼食にピザ(+89)」 「スパゲッティにボロネーゼソース(+81)」 「フォークでピザを食べる(+69)」 「スパゲッティにミートボール(+58)」 イタリア人の間でも意見が分かれること 「おかずにリゾット(+2)」 「パスタを茹でる水にオイル(+1)」 「スパゲッティを茹でる前に折る(-1)」 「皿/ボウルにパスタを入れてからソースを追加(-4)」 イタリア人が問題あると思っていること 「パスタにガーリックパン(-14)」 「パスタを茹でる水に塩を入れない(-17)」 「イタリア料理を食べた後にカプチーノ(-23)」 「茹でたパスタを冷水で冷やす(-23)」 「シーフードパスタにチーズ(-39)」 「カルボナーラソースにクリ

                                                                                  「イタリア人が『イタリア料理に対する犯罪』と考えていること一覧」海外の反応 : 暇は無味無臭の劇薬
                                                                                • 2022年、Rustの未来を探る旅 (1) はじめに

                                                                                  ※大風呂敷を広げてやる気だけ表明する記事です。まだ中身はない。 はじめに Rustは2009年頃に誕生し、2015年に正式リリースされたプログラミング言語です。その革新性はおよそ以下のように集約されます。 shared XOR mutable とそれに付随する発明 (所有権、ライフタイム) により、ミュータブル参照が正しく扱えるようになった (責任分界点が明確になった) こと。 上記のアイデアにより、高パフォーマンス・低フットプリントが求められるアプリケーションやOS・GC・アロケーターのない環境で動く必要のあるアプリケーションをより安全に書けるようになったこと。 プログラマーが安全に・快適にプログラムを書くための既知の優れた道具 (パッケージマネージャーなど) を計画的に取り入れ、伝統的なプログラミング言語が抱えがちな問題を広範に解決したこと。 これらの革新性から、これまでC/C++が担

                                                                                    2022年、Rustの未来を探る旅 (1) はじめに