原油価格からの本日の相場観
http://www.commodity.co.jp/lineup/oil/pdf/OIL_NY_201607.pdf
2008年6月につけた最高値140ドルあたりから、リーマン・ショック以降、30ドル近くまで下落。
その後、3度のアメリカのQEによりWTI原油価格は上昇し、2014年6月には100ドル超えで推移していた。
しかし、2014年11月でのOPECの減産見送り、2015年8月の中国経済減速により、原油価格は40ドルまで下落。
2015年12月17日の米国金利0.25%→0.50%への利上げにより、ドル建て原油価格はドル高に引っ張られ、下落。30ドルを一時割ってから、米国経済の後押しもあり50ドルを超え。
2016年6月の英のEU離脱による経済先行き不安により、再度下落し、40ドルを割った。
2016年8月11日、ダウ上昇18,600ドルへ上昇し、brexit以来の7/20につけた高値まで戻した。同日原油価格も43ドルを回復。
ダウの時価総額にしめるエネルギー関連企業は全体の6.6%に過ぎないが、16%を占める金融関連がエネルギーセクターへの大規模な貸出を実施しているため、原油価格とダウ平均の相関は高いと言われている。
同時にドル円↑、ユロ円↑、ユロドル↓
でドル>ユーロ>円
本日はドル円のレンジ高値更新102.6辺りを超えるかどうか。
ここを超えると103円台も見えてくる。
超えずにレジスタンスで反発した場合は、101円まで下値を試すだろう。
----------------------------------------------------------------------------------
※参考
ダウ平均
ダウ理論
ダウ理論とはチャールズ・H・ダウが19世紀末に”ウォール・ストリート・ジャーナル”に執筆した6つの基本法則を述べたテクニカル分析の元祖と呼ばれる理論
平均はすべての事象を織り込む
市場価格に全てが織り込まれているという考え方
トレンドには3種類ある
主要トレンド:1年~数年のサイクル。
二次トレンド:3週間~3ヶ月のサイクル。
小トレンド :3週間未満のサイクル。
トレンドの種類は
アップトレンド
ダウントレンド
の二つ
主要トレンドは3段階からなる
先行期 :市場価格が下落し全ての悪材料は織り込み済みと判断した少数の投資家が、いわゆる"底値買い"をする時期。価格は、下落しているか底値圏で上下している。
追随期 :市場価格の上昇を見て追随者が買いを入れる時期。価格は、上昇局面にある。
利食い期:価格が充分に上昇したところを見て、先行期に買いを入れた投資家が売りに出て利益を確定する時期。価格は既にその前から上昇局面にあるものの、その上昇する値幅は小さくなっている。
平均は相互に確認されなければならない
複数の数値を見て、判断していく必要がある
トレンドは出来高でも確認されなければならない
トレンドは明確な転換シグナルが発生するまでは継続する
イギリスの住宅価格について
RICS英王立公認不動産鑑定士協会(RICS)が発表する住宅指数が2016年に入ってから、減少を続けている。
RICS(英国王立不動産鑑定士協会)所属の鑑定士のうち、価格上昇を見込む比率と低下を見込む比率の差で、住宅価格の動向に対して先行性が見られる。月次で、翌月半ばに発表。
【イギリス】英王立公認不動産鑑定士協会(RICS)住宅価格指数 - 経済指標 - Yahoo!ファイナンス
2013年7月からの住宅価格指数の高騰について
政府のHelp to Buy政策による需要増
60万ポンド(約1億円)までの物件に対して、5%手持ち資金があれば、政府が15%から20%までを保証する仕組みで、貸し手である銀行や住宅金融組合などのリスクを下げ、より安く借りられる。
これに対して供給量が追いつかず、価格指数の上昇につながった。
2016年7月の指数下落について
brexitによる資産逃避が開始。
年金のマクロ経済スライドへの批判から提訴が起きている件
マクロ経済スライドとは今後の100年間の政府の年金積立徴収額を決めてから、今後100年間のインフレ率を加味して、今年の年金支給額を決めるというもの
これにより高齢人口が増える中、将来的にはインフレが進むことを想定することで、年金支給額を目減りさせることが可能。
去年まではアベノミクスが火を噴いたこともあり、物価上昇率前年比2%達成のために動いていたこともあり、いい感じに機能していた。
ただ、経済不安が膨らみインフレが上手く進められていない現状は、この制度の適用自体が無くなる可能性もある。
----------------------------------------------------------------------------
年金の破綻懸念が強いため、資産運用ビジネスは今後も伸びる可能性が高く、とくにfintech領域の手軽なロボアドバイザーによる資産運用(信託)ビジネスは一時的に盛り上がるとは思っている。
ただ、その資産運用が果たして投資家にとって、最良の選択肢になるのかどうかは疑念が残る。
あとは技術と結果の問題だから、人柱になるアーリーアダプターが実践してからのレイト・マジョリティが参入する一歩手前で手を出せばいいかと。
現時点では手数料ビジネスであるので、規模の経済が働いて、初めて手数料の引き下げ→もしかすると無料化まで進むのがビジネスの常。だから、サービス当初の手数料は高くなりがちだから、正直儲けは少なくなるだろうね。
信託販売が金融庁から後ろ指をさされて、ラップ口座販売に移り変わっているけど
ラップ口座とロボアドバイザーはアドバイス主体の違いだけで、サービスの本質は同じ。共に一時的な盛り上がりから、下火になりそうだけどね。
・信託販売は販売手数料で利益を出すから、いかに顧客に買い替えを促すかが勝負→無駄な買い替えをさせるのが金融庁的にout
・ラップ口座販売は、積立額に手数料率をかけるから、証券会社サイドは買い替えへのモチベーションは持たない→だから、金融庁的にはokだよね、って証券会社は主張してる
ただラップ口座って年間手数料2%も取られるから高い。
普通のネット証券だと0.1%とかだからね
非エンジニアでも分かるhadoopのお話
自社でもhadoop環境が整ってきたわけですが,僕は非エンジニアなのでhadoopの実装部分はノータッチでした。
↑公式アイコンのゾウさん。
これではアナリストの名が廃るということで,同僚から勧められた
(かの有名な城田真琴さんの著書)
を今更ながら読ませていただきました。→分かりやすかった!!
この本を元に,色々調べてとりまとめてみたので,参考になれば嬉しいです!
ビッグデータとは?
一言でいうならば,3V
volume:データ量
variety:多様性(構造化データ+非構造化データ)
velocity:データの生成頻度
以上の3つを特性として持つデータ群を指します。
hadoopって結局なに?
イメージ図↓↓ 手書き...
HDFSというデータ保持システムを基盤に
MapReduceという処理を行うっていうイメージです。
元々,googleが2012年にMapReduceという処理方式を発表しました。
そのMapReduceをオープンソースとして実装したフレームワークがHadoop。
と言われても,,,,
よく分からんと思うので,
この2つの大きな概念を順番に説明していきますね。
1.HDFSとは
要はデータを複数のディスクに分散させて,並列処理を行うことで
たくさんのデータを処理できちゃうっていうこと。
(子供)DataNode:それぞれがデータを保持する。
(お父さん)NameNode:それぞれのDataNodeがどんなデータを保持しているかを管理する。
お父さんがJobTrackerで全てのタスクを管理し,子供が持つTaskTrackerにタスクを振り分ける。
→子供はTaskTrackerを元にお手伝いをする。
こういう構造で並列処理を可能にしているわけですね。
2.MapReduceとは
Map→Reduceという2つの処理を順番に行います。
Map:分散したデータから,欲しいデータのみを集めてくる
地図を片手に,欲しいデータがどこが探してもってくる。
Reduce:Mapにより抽出されたデータを整理して,処理・出力
集めてきたデータをまとめる。
分散処理機構に対して,どう演算しているのかって部分です。
ざっと説明するとこんな感じです。
もう一回見返すと,こんな感じ↓
何となく分かりましたか?
--------------------------------------------
補足...でも大事
Hbaseとは
HDFSの上位レイヤーにあり,データの入出力先として使うデータストレージ。
HDFSではインデックスを参照したデータアクセスはできないけど,
Hbaseを用いることでkeyによるランダムアクセスが可能になります。
RDBMS(Relational Database Management System)と同じく,KVS(Key-Value Store)形式なんだけど,
非構造化データを保持するために,特殊な構造をしています。
RDBMSはカラムに一つの値が入るけど,
Hbaseではカラムファミリと呼ぶものがあり,
そこに複数の修飾子があって,それぞれにvalueが格納されます。
↓こんな感じのイメージ
(画像引用元:http://www.atmarkit.co.jp/ait/articles/1202/27/news128_2.html)
Hiveとは
Facebookが開発した,やんごとなき基盤ソフト!!!
これのお陰で僕も気軽にhadoopに触れられるのです。ありがたや~。
イメージ↓↓
Hadoopのみだと,HDFSからデータを抽出するには,Javaプログラムを実行する必要がありました。
しかし,Hiveを共に実装することで,HDFSのデータをRDBMSのようにテーブル化し,HiveQLというSQLライクな言語でデータを扱えるようになったのです。
facebookの技術力,おそろしや~。。。
Pigとは
これ,公式のアイコンです。
イメージ図 ↓↓
Hadoopクラスタに投げるMap関数とReduce関数は,本来Javaで書きます。
でもPigを使えば,簡単に書けちゃう。
Hueとは
phpmyadminとかphppgadminとかと同じようなものです。
これのお陰で,より多くの人がhadoopに触れられるようになります!
--------------------------------------------
とまあ,hadoop周りのお話は以上です。
非エンジニアの方も,「hadoopってどういう仕組み?」って聞かれたスラスラ答えられたら,かっこいいですよね。
こういった知識がエンジニアさんとの信頼にも繋がっていくと思うのです。
また今度自分で実装してみたいな。
以上!
↓少しでも興味あったら,是非読んでみるといいと思います。
Excelでここまで分析できるのか!①単回帰分析
Excelの実力 for 分析
分析ツールは世にたくさんありますが、
実はExcelもなかなかやりおるのです。
そんなExcelの実力を何回かに分けて紹介していきます。
今回は簡単なところから…
単回帰分析
について話したいと思います。
単回帰分析とは
2つの要素の関係がどういった具合かを調べます。
例えば「来客数」×「商品の販売数」など。
散布図を見てみると…
これを見ただけでは?????だと思うので、
より詳しく見てみましょう。
まずはExcelでの単回帰分析のやり方
Excelのデータタブから
データ分析
を選んで…
→回帰分析をチョイス
Yに「売れた個数」
Xに「来客数」
を指定してあげると、、、
どどーん!!!
結果が出ました。
なんじゃこれ…
と思ったそこのあなた、
いえいえ、心配ご無用です。
見るべきポイントはたったの3つ
単回帰分析でみるべき3つのポイント
①有意F
②係数
③重決定R2
1.有意F
0.05よりも小さければ、この回帰分析は正解!
今回集めたサンプルデータだけではなく、
もともとの母集団においても、求めた回帰式が成り立つと仮定してよいです。
(一般的に当てはめられる、ということ)
今回の有意Fは8.68E-05…
んん???????
○Eとは
10を何乗した値か?を表します。
E-05=10の-5乗=1/100,000
E+05=10の5乗=100,000
例えば1.1E+03 = 1.1×10の3乗です。
今回の有意Fを改めて見てみると、
8.68E-05 = 8.68×10-5 <0.05
→この回帰分析は正しい!(母集団においても回帰式が成立)
2.係数
Y=6.6885X-15.789
(Y:売れた個数、X:来客数)
という関係式が成り立つということ!
グラフで見ると、こんな感じ。
3.重決定R2
Yをどれだけ説明できているか?(寄与率)を表します。
今回は
R2が0.679なので
「売れた個数」の約68%を
「来客数」で説明できたことになります。
一般的に
1.0≧|R|≧0.7 :高い相関がある
0.7≧|R|≧0.5 :かなり高い相関がある ←今回はここ
0.5≧|R|≧0.4 :中程度の相関がある
0.4≧|R|≧0.3 :ある程度の相関がある
0.3≧|R|≧0.2 :弱い相関がある
0.2≧|R|≧0.0 :ほとんど相関がない
と考えます。
補足注意~外挿と内挿
内挿:データの最小値~最大値の間
外挿:データの最小値~最大値の外
外挿部分に関しては、単回帰式は数学的に信頼できない✖
→既存データの最小値や最大値からかけ離れた値の回帰式への代入はダメ
----------------------------------------------------------------------------------------------------
まとめ
単回帰分析は
- 有意F:0.05より小さければ、母集団においても成り立つ。
- 係数:回帰式Y=aX+bを導き出す。
- 重決定R2:YをXでどれだけ説明できているか
を見ればよい!
----------------------------------------------------------------------------------------------------
というわけで、
本シリーズ「Excelでここまで分析できるのか!」の
第一回目「単回帰分析」を終わります!
次回は「重回帰分析」について扱います。
マルチコ排除→変数選択→重回帰分析
までをExcelでちゃちゃっとできることを
お見せします。