import numpy as np
import matplotlib.pyplot as plt #グラフ描画ライブラリ
def softmax(x):
c = np.max(x)
exp_x = np.exp(x - c)
sum_exp_x = np.sum(exp_x)
y = exp_x / sum_exp_x
return y
x = np.arange(-10,10,2); #-10から10まで2刻みの配列を作成する
y = softmax(x)
print(x)
#yの総和は1になる
print(y)
print(np.sum(y))
# グラフ描画
plt.plot(x,y)
plt.show()
[-10 -8 -6 -4 -2 0 2 4 6 8] [ 1.31688261e-08 9.73051952e-08 7.18993546e-07 5.31268365e-06 3.92557175e-05 2.90062699e-04 2.14328955e-03 1.58368867e-02 1.17019645e-01 8.64664719e-01] 1.0
$ pip install pyinstaller
pyinstaller test_hello_work.py
<div>
<?php var_dump($_POST); ?>
</div>
import urllib.request, urllib.parse
data = {
"neko_name": "帽子猫",
"age": 0,
"memo": "弱弱しい猫ちゃんです。"
}
# ここでエンコードして文字→バイトにする!
data = urllib.parse.urlencode(data).encode("utf-8")
with urllib.request.urlopen("http://localhost/selenium_scraping_demo/post_to_web/web/post_to_web_page1.php", data=data) as res:
html = res.read().decode("utf-8")
print(html)
<div> array(3) { ["neko_name"]=> string(9) "帽子猫" ["age"]=> string(1) "0" ["memo"]=> string(33) "弱弱しい猫ちゃんです。" } </div>
<div>
<?php var_dump($_POST); ?>
<hr>
<?php var_dump($_FILES);?>
</div>
import requests
url = "http://localhost/selenium_scraping_demo/post_to_web/web/post_to_web_page1.php"
# 送信データ
neko_name = "ボーシ猫"
neko_age = "0.5"
sendData = {'neko_name': neko_name, 'neko_age': neko_age}
image = "imori.jpg"
data = open(image, 'rb')
file = {'file': data}
res = requests.post(url, data=sendData, files=file)
print(res.text)
<div> array(2) { ["neko_name"]=> string(12) "ボーシ猫" ["neko_age"]=> string(3) "0.5" } <hr> array(1) { ["file"]=> array(5) { ["name"]=> string(9) "imori.jpg" ["type"]=> string(0) "" ["tmp_name"]=> string(24) "C:¥xampp¥tmp¥php5C51.tmp" ["error"]=> int(0) ["size"]=> int(134741) } } </div>
<div>
<?php var_dump($_POST); ?>
<hr>
<?php var_dump($_FILES);?>
</div>
import requests
# 送信データ
neko_name = "ボーシ猫"
neko_age = "0.5"
sendData = {'neko_name': neko_name, 'neko_age': neko_age}
images = {}
for i, f in enumerate(["imori.jpg", "tamamusi.jpg"]):
tiw = open(f, "rb") # io.TextIOWrapper
images[f] = tiw.read()
url = "http://localhost/selenium_scraping_demo/post_to_web/web/post_to_web_page1.php"
res = requests.post(url, data=sendData, files=images)
print(res.text)
<div> array(2) { ["neko_name"]=> string(12) "ボーシ猫" ["neko_age"]=> string(3) "0.5" } <hr> array(2) { ["imori_jpg"]=> array(5) { ["name"]=> string(9) "imori.jpg" ["type"]=> string(0) "" ["tmp_name"]=> string(23) "C:¥xampp¥tmp¥phpAF4.tmp" ["error"]=> int(0) ["size"]=> int(134741) } ["tamamusi_jpg"]=> array(5) { ["name"]=> string(12) "tamamusi.jpg" ["type"]=> string(0) "" ["tmp_name"]=> string(23) "C:¥xampp¥tmp¥phpB05.tmp" ["error"]=> int(0) ["size"]=> int(36015) } } </div>
$ python -m pip install pyinstaller
import pprint
data = [
{'animal_name': 'ネコ', 'age': 3, 'place': '家の中'},
{'animal_name': 'イヌ', 'age': 4, 'place': '家の外'}
]
print('print')
print(data)
print('pprint')
pprint.pprint(data)
print [{'animal_name': 'ネコ', 'age': 3, 'place': '家の中'}, {'animal_name': 'イヌ', 'age': 4, 'place': '家の外'}] pprint [{'age': 3, 'animal_name': 'ネコ', 'place': '家の中'}, {'age': 4, 'animal_name': 'イヌ', 'place': '家の外'}]ソースコード(GitHub)
import os
cur_dp = os.getcwd()
print (cur_dp)
# sampleディレクトリの全階層にあるサブディレクトリとファイルの名前をすべて取得する
for curDir, dirs, files in os.walk('./sample'):
print('---')
print(curDir)
print(dirs)
print(files)
sampleディレクトリ
出力
C:\Users\user\git\python_sample\a001 --- ./sample ['subdir'] ['f0000648_eyecatch00.png', 'sirohara.jpeg'] --- ./sample\subdir ['subdir2'] ['17668.jpg', 'graipfruit2.png'] --- ./sample\subdir\subdir2 [] ['imori.png', 'kinobori.jpg']ソースコード(GitHub)
ソースコード
import os
print ('指定したパス内に存在するファイルとディレクトリの名前をすべて取得する。 | os.listdir')
flist = os.listdir('./sample')
print(flist)
sampleディレクトリ
出力
指定したパス内に存在するファイルとディレクトリの名前をすべて取得する。 | os.listdir ['f0000648_eyecatch00.png', 'sirohara.jpeg', 'subdir']ソースコード GitHub