越境するコンピューター

越境するコンピューター

新しいコンピューターとの付き合い方 〜コンピューターと意思決定と人間〜

AI都市伝説 ディープラーニング「"目" だ "耳" だ "人間"だ」理論

AIブームですね

ディープラーニングの記事で特徴抽出をこんな風に説明している記事を最近よく見かけます。

質問 : ディープラーニングはどうやって画像が人間の顔だと判断するのですか? 答え : ディープラーニングは画像からまず"耳"、"目"、など顔の部品の特徴を自動的に抽出して把握し、それらの特徴を組み合わせて「人間の顔」と判断します

一見もっともらしく聞こえますね

では、これは?

質問 : テレビははどうやって人間の顔を画面に映すのですか? 答え : テレビはまず"耳"、"目"、など顔の部品を画面に映します、それらの画像を組み合わせて「人間の顔」を映します。

こちらはほとんどの人が質問に答えてくれてないと感じますね

二つとも論理展開に無理がある

テレビの場合

質問している人が知りたいのは「三次元の物体が二次元のテレビ画面に映る仕組み」 回答する人は「耳が映って、目が映って、人間の顔が映るんだよ」という的外れな答えなので画像化の仕組みが全くわかりません。 こんな回答されたら「じゃあどうやって耳を写すんですか?」と追加質問したくなりますよね。

ディープラーニングの場合

質問している人が知りたいのは「ディープラーニングが画像を認識する仕組み」 回答する人は「耳を認識して、目を認識して、人間の顔と認識するんだと」という的外れな答えなので認識の仕組みが全くわかりません。 でも、この回答で「ああ、そういうもんなのかなぁ。。」と納得してしまう人も多いのではないでしょうか。 そこで納得せずに「じゃあディープラーニングはどうやって耳を認識するんですか?」と追加質問しましょう。

ディープラーニングなど機械学習で言われている特徴って人間が直感的に把握する特徴(耳、目、とか)とは全く違います。その話はまた今度。

AI都市伝説 暴走つみれ汁 〜AIが人類の脅威?ならイワシもやばい?〜

AIの暴走に警鐘を鳴らす意見、最近よく聞きますね

GoogleのAIが人間の囲碁名人に勝利した時には

囲碁というゲームの中でとはいえ、"自ら考え"、"独創的な手を生む"AIの登場には「暴走」への懸念がつきまとう』

もっともらしいと感じる方も多いのではないでしょうか?

では、これは?

『つみれ汁の中でとはいえ、他の素材と調和しながら"自ら主張"し、"独自の風味を生む"イワシには「暴走」への懸念がつきまとう』

こちらはほとんどの人が無理があると感じますね

何が違うのか?

イワシの場合

イワシがどういうものか?」みんなに共通の認識があります。

"自ら主張"、"独自の風味を生む" というのがイワシを料理に使うときの比喩表現だとみんなすぐ分かります。 なのでその後に "「暴走」への懸念" と出てくると強い違和感を感じます。

AIの場合

「AIがどういうものか?」実は共通の認識ってまだありません。

"自ら考え"、"独創的な手を生む" という表現の受け取り方が人によって違います。

AIという言葉からターミネーターのようなSF的なものを思い浮かべる人は?

"自ら考え"、"独創的な手を生む" を比喩ではなく額面通りに受け取るので、最後に出てくる"「暴走」への懸念" のくだりも違和感無いでしょう。

AIという言葉から現段階でAIと呼ばれるテクノロジーが実現できていることを思い浮かべる人は?

"自ら考え"、"独創的な手を生む" をAIと呼ばれているテクノロジーがやってることを擬人化した比喩表現にすぎないと受け取るので、最後に出てくる "「暴走」への懸念" のくだりにイワシ文書と同じくらいの大きな違和感を感じるでしょう。

AIの擬人化には気をつけよう

擬人化した表現は難しいことを直感的に分かりやすく伝えるのにとても役立ちます。

しかし、AIのような定義が定まっていないものを論じる時に使うと、受け手ごとに大きく異なる解釈が生じる可能性があるので注意が必要です。

ちなみに、ターミネーターのようなSF的なAIはこの世に存在しません。

ゼロから始める機械学習 〜悩めるシステムエンジニアの方に向け連載開始〜

 

qiita.com

qiita.com

 

長年IT業界に身を置くシステムエンジニアにとっても機械学習って結構ハードルが高いです。

「入門書を手に取ったけど数ページ進んで数式が出てきたところでギブアップ」

という方も多いのではないでしょうか?

「学生時代に理系専攻で数学をバリバリやってた」という人なら話は別ですが「学生時代文科系だったけどIT業界に入ってシステムエンジニアやってます」という方にとっては巷に出ている「機械学習入門書」はかなりハードルが高いと思います。

でも勘違いしないでください、あなたが理解できないのはあなたの頭が悪いからではありません、あなたが理解するための前提知識を身につけていないだけなんです。

連続ドラマに例えると、5話目からから観るとストーリーわかりませんよね、それは1〜4話のストーリーを知らないからですよね。

機械学習も同じこと、巷の「機械学習入門」はある程度の数学の知識(線形代数微分積分、統計など)を前提にして書かれているものがほとんどです。この前提知識を身につければ機械学習のハードルはぐっと下がります。

「でも前提知識って数学なんでしょ?学生時代数学苦手だったから私には無理かも」と思っているあなた、安心してください、絶対大丈夫です。

数学の知識といっても決して難しいものではありません。少なくともシステムエンジニアとして仕事をしているあなたなら、慣れてしまえば「なんだ、こんな簡単なことなのか」と思える日が必ず来ます。

機械学習に必要な前提知識を身につけるのに、重要なポイントが二つあります

  • 何の役に立つのかを理解する
  • 数式に慣れる
何の役に立つのかを理解する

機械学習に必要な数学の前提知識(線形代数微分積分、統計など)のわかりやすい入門書は沢山あります。機械学習に必要だからという理由でこれらの入門書で勉強を始めた人が挫折する大きな理由として「機械学習にどう役立つか分からんのでやる気が出ない」というのがあると思います。目的がわからないまま基礎練習ばっかりやらされてる感じが、時間の無い多忙なシステムエンジニアには厳しいですよね。

まず「機械学習でこう言う風に使われるから必要なんだ」と理解してから勉強すると、目標が見えるのでやる気が出ますし、実践的な理解が可能になります。

数式に慣れる

「数式を一つ追加すると本の売り上げが半分に落ちる」という話がまことしやかに囁かれるほど、数学に馴染みのない人にとって数式はハードルが高いようです。

しかしシステムエンジニアのあなたはこれまでの仕事でプログラムを書いたり読んだり、システム設定のパラメーターを調整したりしたことがあると思います。

数式も一つのプログラム言語のようなものです、慣れるまでは何を言いたいのか読み解くのに時間がかかりますが、慣れてしまえば「確かに、文書で書くよりシンプルでわかりやすい」と思えるようになります。

プログラム言語を習得した時のことを思い出しましょう。システムエンジニアなら必ず数式を楽に読み解けるようになります。

ゼロから始める機械学習

筆者はAIのコミュニティーを立ち上げ活動を行っており、その活動の一つとして機械学習入門をコミュニティーメンバーと実施しています。

この活動をする中で「数学の前提知識を持たないシステムエンジニアの方は多い、そんな方たちが機械学習の知識をスムーズに身につける手助けができれば」との思いを持ち、連載を開始することを思い立ちました。

「前提知識ゼロの方にも理解できるわかりやすい内容にすること」「分かりやすさのために正確性を犠牲にしないこと」を目標に、コミュニティー活動を通じて得たフィードバックを織り交ぜながら進めていきます。

記事はQiitaに投稿していきます、こちらに投稿したリンクを添付していきますので、よろしくお願いいたします。

 

 

 

 

 

劇的精度向上で話題のディープラーニングを使った翻訳の仕組み

ちょっと前までコンピューター翻訳って「なんとか理解できるけど、かなりぎこちない」という印象でしたが、最近は驚くほど流暢な翻訳をしてくれます。この劇的と言える品質の向上、実はディープラーニングによって実現されています。

今日は、ここ数年でコンテストや実際の活用場面で従来の方法を上回る結果を出して注目を浴びている "ニューラル翻訳"と呼ばれるディープラーニングを使った仕組みについて記してみたいと思います。

ニューラル翻訳による機械翻訳

ニューラル翻訳による機械翻訳和文英訳を例に説明します。

1.ざっくりどんな仕組みか?

大量の日本文と英訳文のセットを使ってニューラル翻訳に対する学習を行います。適切な学習をさせた後日本文を入れると、翻訳された英文が出てくるようになります。

以下では学習が完了したニューラル翻訳で和文英訳を行う際の動きを使って、その仕組みを説明します。

2.ニューラル翻訳への入力前の下準備

2-1.単語分割

ニューラル翻訳への入力は単語単位になりますので、まず文書を単語分割する必要があります。英語の場合単語の間にスペースあるので比較的簡単ですが日本語は単語の切れ目が無いので少し難易度は高いです。形態素解析と呼ばれる単語分割の方法を使ってこれを行います。今回は形態素解析については詳細を記しません「単語を分割する仕組みがあるんだ、それをやってくれる仕組みがあるんだ」と理解いただければ大丈夫です。

  • 今日はいい天気ですね → '今日' , 'は' , 'いい' , '天気' , 'です'

2-2.one-hotベクトル

コンピューター扱えるのは基本的に数値データのみですから入力に先立ち、単語を数値情報に変換する必要があります。単語の数値変換に使われるがOne-Hotベクトルです。語彙数分の次元を持つベクトルを準備し、単語に割り当てられた要素のみを1で他は0に設定することで単語を表現します。難しそうに聞こえますがやってることはシンプルです。

'今日' , 'は' , 'いい' , '天気' , 'です' をone-hotベクトルで表現してみましょう。

  • ‘今日’ → 1 (1,0,0,0,0)
  • ‘は’  → 2 (0,1,0,0,0) 
  • ‘いい’ → 3 (0,0,1,0,0)
  • ‘天気’ → 4 (0,0,0,1,0) 
  • ‘です’ → 5 (0,0,0,0,1)

ここでは簡単のため5次元にしましたが、実際は日本語の語彙はもっともっとたくさんあるのでベクトルはもっと高次元(例えば10万)になります。

 *ベクトルというと難しいそうですが、要するにこういうふうにいくつかの数字を並べてセットにしたものです。上の例では5つの数字がならんでるので5次元ベクトルといいます。
 

2.ニューラル翻訳の内部構造

ニューラル翻訳は大きく2つのパートに分かれています。前半パートでは入力された日本文の情報をベクトルに詰め込む作業を行います。後半パートでは作成した日本語ベクトルを元に英文を出力する作業を行います。

2-1.前半パート(日本語情報を符号化する)

ここでは入力された日本語情報を表現するベクトルが作成されます。このパートは2つの層で構成されています、それぞれの層を見ていきましょう。

(1)単語を符号化する(符号化埋め込み層)

ニューラル翻訳の最初の層です。この層では入力されたone-hotベクトルを分散表現ベクトルに変換します。

one-hotベクトルは通し番号振ってるだけに等しいので単語と単語の類似性とか関連性などを表現できません。そこでこの層で入力のOne-Hotベクトルを、複数のベクトル要素で単語を表現する分散表現ベクトルと呼ばれるものに変換します。学習を通じて分散表現が適切な値に設定されれば、意味の似た単語は似た分散ベクトルの値というように単語の関連性を表現できるようになります。

下記の例では5次元のOne-Hotベクトルを3次元の分散表現に変換しています

  • ‘今日’→ 1 (1,0,0,0,0)  分散表現 (0.3, 0,4, 0,5)
  • ‘は’→     2 (0,1,0,0,0)  分散表現 (0.2, 0,8, 0,3)
  • ‘いい’→ 3 (0,0,1,0,0)  分散表現 (2.0, 0.6, 3.0)
  • ‘天気’→ 4 (0,0,0,1,0)  分散表現 (0.6, 3.2, 5.0)
  • ‘です’→ 5 (0,0,0,0,1)  分散表現 (1.3, 4.5, 0.4)

one-hotベクトルは5次元のベクトルのうち1つだけ1で他は0でした。一方分散表現では3次元のベクトルの複数のベクトル要素に値がセットされ単語を表現しています。複数のベクトル要素で表現しているので分散表現と呼ばれます。

(2)日本文を符号化する( 符号化再帰層)

前の層で分散表現に変換された単語を順番に入力して、日本語の文書のベクトルを作成します。この層は作成されたベクトル情報を次のステップで入力として使う再帰ニューラルネットワークという仕組みになっています。

例を使ってみてみましょう。

  • Step#1 ‘今日’                                 → 日本文ベクトル#1
  • Step#2 ‘は’  + 日本文ベクトル#1     → 日本文ベクトル#2 
  • Step#3 ‘いい’ + 日本文ベクトル#2     → 日本文ベクトル#3
  • Step#4 ‘天気’ + 日本文ベクトル#3     → 日本文ベクトル#4
  • Step#5 ‘です’ + 日本文ベクトル#4     → 日本文ベクトル#5 

再帰構造になっているので、各ステップで前のステップで作成された日本文ベクトルを入力として使っています。この層の処理が完了し、最終的に作成された日本文ベクトル#5には日本文を構成する全ての単語情報が入っています。

2-2.後半パート(英訳を行う)

ここでは符号化層で作成された日本語情報を表現するベクトルを元に英訳文を出力します。

  • Step#1 日本文ベクトル#5 + BOS     → 英訳ベクトル#1 →  "It"
  • Step#2 英訳ベクトル#1    + "It"        → 英訳ベクトル#2 →  "is"
  • Step#3 英訳ベクトル#2    + "is"       → 英訳ベクトル#3 →  "fine"
  • Step#4 英訳ベクトル#3    + "fine"    → 英訳ベクトル#4 →  "today"
  • Step#5 英訳ベクトル#4    + "today" → 英訳ベクトル#5 →  "EOS" 

各ステップの動きをみてみましょう。

Step#1では

前半パートで作成した "日本語ベクトル#5" とこれから英文開始しますという特殊文字記号 "BOS" を入力に変換処理を行い、"英訳ベクトル#1"が作成されます。

作成された"英訳ベクトル#1"を入力に変換処理を行い、英訳文の最初の単語 "It" が作成されます。

Step#2では

Step#1で作成された"英語ベクトル#1"と出力された英単語 "It"を入力に"英訳ベクトル#2"が作成されます。

作成された"英訳ベクトル#2"を入力に変換処理を行い、英訳文の2番目の単語 "is" が作成されます。

この後同じように処理を繰り返して行き、"EOS:(End of Sentence)"が出力されたら終了します。

今までの仕組みとの違いと可能性

従来の機械翻訳の仕組みは自然言語処理に必要な色々な部品を組み合わせて作られていました。実装に当たってはまずそれぞれの部品の学習を行い、学習済みの部品を組み合わせたものに対して翻訳の学習を行うという作業が必要でした。

ニューラル翻訳は一つのニューラルネットで翻訳を行うので、従来の方法に比べると学習方法がシンプルです。従来の仕組みの場合は各部品の学習のために部品の学習に特化したデータを作成する必要がありましたが、ニューラル翻訳の場合は実際の翻訳データだけあれば良いのでデータ収集も簡単です。

また従来の部品による構成だとある程度入力と出力の関係を考慮して部品の構成を考えて実装する必要がありましたが、ニューラル翻訳の場合はそういった中間層を考慮する必要がありません。

これを応用すればこれまで入力と出力の関係の定義が難しいため機械学習の対象にすることができなかったような処理も可能になります。この系列変換モデルという仕組みを使って画像情報を入力にその説明文を出力するような学習も実装され始めています。

 

参考書籍 

深層学習による自然言語処理 (機械学習プロフェッショナルシリーズ)

深層学習による自然言語処理 (機械学習プロフェッショナルシリーズ)

 

 

岩波データサイエンス Vol.2

岩波データサイエンス Vol.2

 

 

統計的自然言語処理の基礎

統計的自然言語処理の基礎

 

 

文系のための人工知能 人工知能をめぐる都市伝説 〜なぜ誤解は生まれるのか?~〜

文系のための人工知能の連載はこちらに引っ越しました。

blogs.itmedia.co.jp

Hatenaブログでは引き続き日々の由無し事を綴っていきますのでよろしくお願いします。

文系のための人工知能 〜今現在、人工知能が出来ることをざっくり理解しよう〜

世に溢れる人工知能の情報は、"今できること" と "SFの世界" と "将来の展望" がごっちゃに語られてるケースが多く、文系の人の多くが人工知能を誤解してしまいます。私もそうでした。 

まず  "今人工知能が出来ること” を理解しましょう。これで少し視界がすっきりすると思います。

人工知能が出来ること

人工知能ブームですが、鉄腕アトムのようなロボットが出来てる訳じゃありません。今人工知能と呼ばれているものは基本的にあなたが使っているパソコンと同じ仕組みのコンピューターで出来ています。ただあなたが慣れ親しんでいるのとちょっと違う使い方をしていて、その使い方を人工知能と呼んでいます。その使い方は "機械学習" と呼ばれています。

機械学習って何ですか?

今回は概要理解のため超ざっくりと機械学習を説明します(*1)

機械学習を一言で言うと "分類機械" です。もうちょっと難しくいうと『判断基準をプログラムにロジックとして入れ込むのが難しいケースでもデータを元に傾向をつかみおそらくだいたい正しい選択肢を提示する』仕組みです。

何ができるのか?

そう言ってもなかなかイメージつかめないと思うので実際の例で説明すると 

  • 画像分類...多くの画像から人が写っているものを分類
  • 文書分類...Webの記事を政治、経済、スポーツ、芸能、その他に分類

写真に人が写ってる判断基準やWebの記事の内容の判断基準を説明しろって言われても難しいですよね、説明できないものはプログラムできません。コンピューターはこういうデータ(非構造化データと言います)を扱うのが苦手でした、機械学習を使うとこれを扱えるようになります。

  • 迷惑メール...送られてくるメールから迷惑メールを検知して分類
  • カード不正...カードの使用情報から不正使用を発見

迷惑メールやカード不正とも日々新しい手口が開発されているので判断基準作ること自体が難しいです。また、いろいろある情報をもとにすると何らかの相関を発見できそうだけど人間がそれをあぶり出すのは困難です。こういうケースでも機械学習が活躍します。

どうやってやるのか?

機械学習のやり方をイメージでいうと "調整つまみ" がたくさん付いている分類器です。この分類器は使う前に用途に応じて "調整つまみ" を調整する必要があります。

例えば人が写っている写真を分類したい場合、大量の写真データを準備します、写真にはあらかじめ ”人が写っている” , ”写っていないというラベルをつけておきます。これを分類器にインプットして分類を行います。分類器はラベルを見ないで分類を行い、その結果とラベルを比較して答え合わせをします。正しく仕分できた場合はそのまま、間違えた場合は少しづつ"調整つまみ(パラメーター)"を調整して徐々に正解率を上げていきます。実用に耐えうる精度が得られるまでこれを続けます。

これが人間が "学習"する過程と似ているので『機械学習』と呼ばれていますが、実際にやっているのは調整つまみの調整、もっとストレートに言うとパラメーター調整です。

実装方法

 機械学習には色んな実装方法があります。ニューラルネットワーク、サポートベクトルマシン、ベイジアンネットワーク、などなど。どれもデータを元に学習(パラメーター調整)を行って実際に使うという部分は一緒です。

最近よく耳にする『ディープラーニング(深層学習)』はニューラルネットワークに分類される手法で、最近これを使うことで分類の精度が飛躍的に向上した分野もあり今の人工知能ブームの火付け役になっています。ディープラーニング(深層学習)』という名前から「人知を超えたすっごい深遠なことを考えている」と誤解する人がいるのですが単なる機械学習の一手法に過ぎません。

どうして今ブームに?

機械学習という考え方自体は昔からありました。先ほど言った今回のブームの立役者の一つ『ディープラーニング(深層学習)』も、使っている手法は昔からあるもので特に新しいものはありません。

ではなぜ今ブームなのか、それには2つの理由があります

(1)大量データ

機械学習が学習して実用に耐える精度を実現するためには大量の学習用データが必要です。昔はそれだけのデータを入手するのが困難でした。Bigdata時代とも言われる現在、データの入手が可能になりました。

(2)コンピューターの性能向上

学習は多くの調整つまみ(=パラメーター)を調整する必要があります。昔のコンピューターの性能ではこの調整に時間がかかりすぎるので大規模な調整器を作っても実用に耐える時間で学習させることが困難でした。昨今のコンピューターの性能向上で実用に耐えうる時間での学習が可能になりました。

何がすごいのか?

コンピューターを使って『過去のデータからおそらくだいたい正しい答え』を出せるような仕組みを実現できたこと、その精度が上がってきたことは大きな可能性を持っていると筆者は思います。人間の思考方法でいうと『帰納的』な推論をコンピューターに実行させることで新しい形で人間の意思決定支援を支援できるようになると思っています。

 

しかし、、、

世で議論されている人工知能の出来ること、その影響については誤解に基づいた意見も多いと感じています。ということで来週は

なぜ誤解が生まれるのか?その原因と対策

 

(*1) 今回機械学習の概要をザクッと理解いただくため、かなりざっくりした説明になっています。機械学習で出来ることは今回説明した分類以外に回帰とかクラスターなどがあります。学習方法には今回説明した教師あり学習という手法以外に教師なし学習、強化学習などがあります。また実際はデータを訓練データとテストデータに分けて過剰適合していないかを確認するなどのステップもありますがこの説明で割愛しています。その他いろいろはしょってる部分の詳細はこの連載の中で説明していく予定です。

 

 

 

 

 

 

 

 

 

 

文系のための人工知能 〜前提知識ゼロから始める人工知能〜

最近人工知能ブームと言われてます。メディアでは連日のように人工知能間連の話題が取り上げられています、本屋に行くと「人工知能時代の〜」とか「AIが変える〜」とかいう本が平積みされています。

しかし一方「人工知能って何?難しそうで正直よくわからない」と言う声もよく聞くようになりました。

どうしてわからないのか?

これだけ情報が溢れているのにどうしてよく分からないという声が多いのか?

人工知能で世の中がこうなるという雑多な情報が溢れかえっていること、その一方で人工知能そのものに関する情報は専門的すぎて敷居が高いこと、の2つが理由だと私は考えます。

世に溢れる人工知能でこうなる情報

世に溢れる情報の多くが「人工知能で世の中どうなる」というもの。いろんな分野の著名な方々が人工知能で世の中こう変わる」と語っています。人工知能自体が理解できていない文系人間にはその語りが「その人の専門的な知識に基づいているのか?」「その人の個人的な意見なのか?」の区別がつかず、どれを信じていいのかわからないんです。

敷居の高い人工知能入門

「やっぱ自分が人工知能自体を理解しないとはじまらない、勉強しよう」と "人工知能入門" という題名の本を見つけて読み始めたとします。あなたが文科系の人の場合、数ページ目で難しそうな数式が出てきて挫折、というケースが多いと思います。世に出ている入門の多くがある程度の数学知識を前提としているので文科系にはとても敷居が高いのです。

わからなくてもいいのか?

「どうせ難しくて文系には理解できないんだから分からなくていい」という声も聞きます。

確かに万人が人工知能について専門家レベルの知識を持つことは現実的ではありませんしそこまで知る必要も無いと思います。

しかしみんなが『ある程度のレベルの理解』を持つことは十分可能ですし、人工知能というテクノロジーが今後有効活用されていくためには万人共通の『ある程度のレベルの理解』を造ることが必須であると私は考えます。私がなぜそう考えるかを2つのポイントで説明します。

人工知能の判断を鵜呑みにしないために

人工知能は「なんかすごいみたいだから」というだけでその判断を鵜呑みにしてしまうのは『お告げに従う』姿勢と大差ありません。人工知能がどんなに発展しようと最終的な決定を行うのは人間です。人工知能の出した判断を鵜呑みにすることなく、正しく評価するためには人工知能に関する『ある程度のレベルの理解』が必要です。これがあって初めて人工知能の有効活用が可能になると私は考えます。

人工知能を有効活用するアイデアを生むために

一般的にあるテクノロジーの専門家と、そのテクノロジーを活用する人は同じではありません。例えばテレビというテクノロジーの専門家だけではテレビドラマを作ることはできないですよね。人工知能も同じで、他の分野の人が人工知能というテクノロジーを活用することで、専門家だけでは考えつかないような大胆かつ素敵な活用方法が生まれてくると私は考えます。ただ全く理解できないものを活用することはできません。専門家以外の人が人工知能というテクノロジーを活用するためには人工知能に対する『ある程度のレベルの理解』が必要です。

どうやって『ある程度のレベルの理解』をするのか?

ここまで読んで「そんなことはわかってる、でもその『ある程度のレベルの理解』が面倒で難しいんだよ」と思った方も多いかと思います。

確かに文科系の人間にとって人工知能を理解するのはかなり敷居が高そうに見えます。これは人工知能という山への登山ルートが理系用に作られているためです。同じルートを登るのではなく、文科系用の登山ルートを登っていけばいいのです、そのルートでは理系のルートでは見えなかった景色も見えてくると思います。次回から私が今登っている文系用の登山ルートをご案内していきます。

 

 

 

このサイトの掲載内容は私個人の見解であり、必ずしも私が所属する会社、組織、団体の立場、戦略、意見を代表するものではありません