Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
G
go-ipfs
概览
概览
详情
活动
周期分析
版本库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
统计图
问题
0
议题
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
代码片段
成员
成员
折叠边栏
关闭边栏
活动
图像
聊天
创建新问题
作业
提交
问题看板
Open sidebar
jihao
go-ipfs
Commits
9338caa9
提交
9338caa9
authored
8月 31, 2014
作者:
Jeromy
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
working on making importer not break on large files
上级
ddd2a9ae
隐藏空白字符变更
内嵌
并排
正在显示
3 个修改的文件
包含
46 行增加
和
33 行删除
+46
-33
importer.go
importer/importer.go
+11
-27
split_test.go
importer/split_test.go
+2
-4
splitting.go
importer/splitting.go
+33
-2
没有找到文件。
importer/importer.go
浏览文件 @
9338caa9
...
...
@@ -3,7 +3,6 @@ package importer
import
(
"fmt"
"io"
"io/ioutil"
"os"
dag
"github.com/jbenet/go-ipfs/merkledag"
...
...
@@ -20,32 +19,17 @@ var ErrSizeLimitExceeded = fmt.Errorf("object size limit exceeded")
// NewDagFromReader constructs a Merkle DAG from the given io.Reader.
// size required for block construction.
func
NewDagFromReader
(
r
io
.
Reader
,
size
int64
)
(
*
dag
.
Node
,
error
)
{
// todo: block-splitting based on rabin fingerprinting
// todo: block-splitting with user-defined function
// todo: block-splitting at all. :P
// todo: write mote todos
// totally just trusts the reported size. fix later.
if
size
>
BlockSizeLimit
{
// 1 MB limit for now.
return
nil
,
ErrSizeLimitExceeded
func
NewDagFromReader
(
r
io
.
Reader
)
(
*
dag
.
Node
,
error
)
{
blkChan
:=
SplitterBySize
(
1024
*
512
)(
r
)
root
:=
&
dag
.
Node
{}
for
blk
:=
range
blkChan
{
child
:=
&
dag
.
Node
{
Data
:
blk
}
err
:=
root
.
AddNodeLink
(
""
,
child
)
if
err
!=
nil
{
return
nil
,
err
}
}
// Ensure that we dont get stuck reading way too much data
r
=
io
.
LimitReader
(
r
,
BlockSizeLimit
)
// we're doing it live!
buf
,
err
:=
ioutil
.
ReadAll
(
r
)
if
err
!=
nil
{
return
nil
,
err
}
if
int64
(
len
(
buf
))
>
BlockSizeLimit
{
return
nil
,
ErrSizeLimitExceeded
// lying punk.
}
root
:=
&
dag
.
Node
{
Data
:
buf
}
// no children for now because not block splitting yet
return
root
,
nil
}
...
...
@@ -66,5 +50,5 @@ func NewDagFromFile(fpath string) (*dag.Node, error) {
}
defer
f
.
Close
()
return
NewDagFromReader
(
f
,
stat
.
Size
()
)
return
NewDagFromReader
(
f
)
}
importer/split_test.go
浏览文件 @
9338caa9
package
importer
import
(
"testing"
"crypto/rand"
"bytes"
"crypto/rand"
"testing"
)
func
TestDataSplitting
(
t
*
testing
.
T
)
{
buf
:=
make
([]
byte
,
16
*
1024
*
1024
)
rand
.
Read
(
buf
)
split
:=
Rabin
(
buf
)
if
len
(
split
)
==
1
{
...
...
@@ -47,4 +46,3 @@ func TestDataSplitting(t *testing.T) {
t
.
Log
(
len
(
split
))
t
.
Log
(
min
,
max
,
mxcount
)
}
importer/splitting.go
浏览文件 @
9338caa9
package
importer
type
BlockSplitter
func
([]
byte
)
[][]
byte
import
(
"io"
u
"github.com/jbenet/go-ipfs/util"
)
type
BlockSplitter
func
(
io
.
Reader
)
chan
[]
byte
func
SplitterBySize
(
n
int
)
BlockSplitter
{
return
func
(
r
io
.
Reader
)
chan
[]
byte
{
out
:=
make
(
chan
[]
byte
)
go
func
(
n
int
)
{
defer
close
(
out
)
for
{
chunk
:=
make
([]
byte
,
n
)
nread
,
err
:=
r
.
Read
(
chunk
)
if
err
!=
nil
{
if
err
==
io
.
EOF
{
return
}
u
.
PErr
(
"block split error: %v
\n
"
,
err
)
return
}
if
nread
<
n
{
chunk
=
chunk
[
:
n
]
}
out
<-
chunk
}
}(
n
)
return
out
}
}
// TODO: this should take a reader, not a byte array. what if we're splitting a 3TB file?
func
Rabin
(
b
[]
byte
)
[][]
byte
{
...
...
@@ -39,7 +70,7 @@ func Rabin(b []byte) [][]byte {
}
// first 13 bits of polynomial are 0
if
poly
%
8192
==
0
&&
i
-
blk_beg_i
>=
min_blk_size
{
if
poly
%
8192
==
0
&&
i
-
blk_beg_i
>=
min_blk_size
{
// push block
out
=
append
(
out
,
b
[
blk_beg_i
:
i
])
blk_beg_i
=
i
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论